`
lvjianyun
  • 浏览: 7517 次
  • 性别: Icon_minigender_1
  • 来自: 北京
社区版块
存档分类
最新评论

学习hadoop 出现的问题,以及解决方案

阅读更多

1:Shuffle Error: Exceeded MAX_FAILED_UNIQUE_FETCHES; bailing-out

Answer:

程序里面需要打开多个文件,进行分析,系统一般默认数量是1024,(用ulimit -a可以看到)对于正常使用是够了,但是对于程序来讲,就太少了。

修改办法:

修改2个文件。

/etc/security/limits.conf

vi /etc/security/limits.conf

加上:

* soft nofile 102400

* hard nofile 409600

 

$cd /etc/pam.d/

$sudo vi login

添加session    required     /lib/security/pam_limits.so

 

2:Too many fetch-failures

Answer:

出现这个问题主要是结点间的连通不够全面。

1) 检查 、/etc/hosts

   要求本机ip 对应 服务器名

   要求要包含所有的服务器ip + 服务器名

2) 检查 .ssh/authorized_keys

   要求包含所有服务器(包括其自身)的public key

 

3:处理速度特别的慢 出现map很快 但是reduce很慢 而且反复出现 reduce=0% 

Answer:

结合第二点,然后

修改 conf/hadoop-env.sh 中的export HADOOP_HEAPSIZE=4000 

 

4:能够启动datanode,但无法访问,也无法结束的错误

在重新格式化一个新的分布式文件时,需要将你NameNode上所配置的dfs.name.dir这一namenode用来存放NameNode 持久存储名字空间及事务日志的本地文件系统路径删除,同时将各DataNode上的dfs.data.dir的路径 DataNode 存放块数据的本地文件系统路径的目录也删除。如本此配置就是在NameNode上删除/home/hadoop/NameData,在DataNode上删除/home/hadoop/DataNode1和/home/hadoop/DataNode2。这是因为Hadoop在格式化一个新的分布式文件系统时,每个存储的名字空间都对应了建立时间的那个版本(可以查看/home/hadoop /NameData/current目录下的VERSION文件,上面记录了版本信息),在重新格式化新的分布式系统文件时,最好先删除NameData 目录。必须删除各DataNode的dfs.data.dir。这样才可以使namedode和datanode记录的信息版本对应。

注意:删除是个很危险的动作,不能确认的情况下不能删除!!做好删除的文件等通通备份!!

 

5:java.io.IOException: Could not obtain block: blk_194219614024901469_1100 file=/user/hive/warehouse/src_20090724_log/src_20090724_log

出现这种情况大多是结点断了,没有连接上。

 

6:java.lang.OutOfMemoryError: Java heap space

出现这种异常,明显是jvm内存不够得原因,要修改所有的datanode的jvm内存大小。

Java -Xms1024m -Xmx4096m

一般jvm的最大内存使用应该为总内存大小的一半,我们使用的8G内存,所以设置为4096m,这一值可能依旧不是最优的值。(其实对于最好设置为真实物理内存大小的0.8)

7:出现map%,但是呢reduce到98%左右的时候呢,就直接进failedjobs了

解决办法:

检查mapred.map.tasks是不是设置的太多了,设置太多的话会导致处理大量的小文件

检查mapred.reduce.parallel.copies是否设置合适。

 

8:

系统根目录下的/tmp文件夹是不可以删除的

否则bin/hadoop jps

会出现异常:

Exception in thread "main" java.lang.NullPointerException  at sun.jvmstat.perfdata.monitor.protocol.local.LocalVmManager.activeVms(LocalVmManager.java:127)

        at sun.jvmstat.perfdata.monitor.protocol.local.MonitoredHostProvider.activeVms(MonitoredHostProvider.java:133)

        at sun.tools.jps.Jps.main(Jps.java:45)

同时

bin/hive

Unable to create log directory /tmp/hadoopuser

 

2:Too many fetch-failures

Answer:

出现这个问题主要是结点间的连通不够全面。

1) 检查 、/etc/hosts

   要求本机ip 对应 服务器名

   要求要包含所有的服务器ip + 服务器名

2) 检查 .ssh/authorized_keys

   要求包含所有服务器(包括其自身)的public key

 

3:处理速度特别的慢 出现map很快 但是reduce很慢 而且反复出现 reduce=0% 

Answer:

结合第二点,然后

修改 conf/hadoop-env.sh 中的export HADOOP_HEAPSIZE=4000 

 

4:能够启动datanode,但无法访问,也无法结束的错误

在重新格式化一个新的分布式文件时,需要将你NameNode上所配置的dfs.name.dir这一namenode用来存放NameNode 持久存储名字空间及事务日志的本地文件系统路径删除,同时将各DataNode上的dfs.data.dir的路径 DataNode 存放块数据的本地文件系统路径的目录也删除。如本此配置就是在NameNode上删除/home/hadoop/NameData,在DataNode上删除/home/hadoop/DataNode1和/home/hadoop/DataNode2。这是因为Hadoop在格式化一个新的分布式文件系统时,每个存储的名字空间都对应了建立时间的那个版本(可以查看/home/hadoop /NameData/current目录下的VERSION文件,上面记录了版本信息),在重新格式化新的分布式系统文件时,最好先删除NameData 目录。必须删除各DataNode的dfs.data.dir。这样才可以使namedode和datanode记录的信息版本对应。

注意:删除是个很危险的动作,不能确认的情况下不能删除!!做好删除的文件等通通备份!!

 

5:java.io.IOException: Could not obtain block: blk_194219614024901469_1100 file=/user/hive/warehouse/src_20090724_log/src_20090724_log

出现这种情况大多是结点断了,没有连接上。

 

6:java.lang.OutOfMemoryError: Java heap space

出现这种异常,明显是jvm内存不够得原因,要修改所有的datanode的jvm内存大小。

Java -Xms1024m -Xmx4096m

一般jvm的最大内存使用应该为总内存大小的一半,我们使用的8G内存,所以设置为4096m,这一值可能依旧不是最优的值。(其实对于最好设置为真实物理内存大小的0.8)

7:出现map%,但是呢reduce到98%左右的时候呢,就直接进failedjobs了

解决办法:

检查mapred.map.tasks是不是设置的太多了,设置太多的话会导致处理大量的小文件

检查mapred.reduce.parallel.copies是否设置合适。

 

8:

系统根目录下的/tmp文件夹是不可以删除的

否则bin/hadoop jps

会出现异常:

Exception in thread "main" java.lang.NullPointerException  at sun.jvmstat.perfdata.monitor.protocol.local.LocalVmManager.activeVms(LocalVmManager.java:127)

        at sun.jvmstat.perfdata.monitor.protocol.local.MonitoredHostProvider.activeVms(MonitoredHostProvider.java:133)

        at sun.tools.jps.Jps.main(Jps.java:45)

同时

bin/hive

Unable to create log directory /tmp/hadoopuser

 

2:Too many fetch-failures

Answer:

出现这个问题主要是结点间的连通不够全面。

1) 检查 、/etc/hosts

   要求本机ip 对应 服务器名

   要求要包含所有的服务器ip + 服务器名

2) 检查 .ssh/authorized_keys

   要求包含所有服务器(包括其自身)的public key

 

3:处理速度特别的慢 出现map很快 但是reduce很慢 而且反复出现 reduce=0% 

Answer:

结合第二点,然后

修改 conf/hadoop-env.sh 中的export HADOOP_HEAPSIZE=4000 

 

4:能够启动datanode,但无法访问,也无法结束的错误

在重新格式化一个新的分布式文件时,需要将你NameNode上所配置的dfs.name.dir这一namenode用来存放NameNode 持久存储名字空间及事务日志的本地文件系统路径删除,同时将各DataNode上的dfs.data.dir的路径 DataNode 存放块数据的本地文件系统路径的目录也删除。如本此配置就是在NameNode上删除/home/hadoop/NameData,在DataNode上删除/home/hadoop/DataNode1和/home/hadoop/DataNode2。这是因为Hadoop在格式化一个新的分布式文件系统时,每个存储的名字空间都对应了建立时间的那个版本(可以查看/home/hadoop /NameData/current目录下的VERSION文件,上面记录了版本信息),在重新格式化新的分布式系统文件时,最好先删除NameData 目录。必须删除各DataNode的dfs.data.dir。这样才可以使namedode和datanode记录的信息版本对应。

注意:删除是个很危险的动作,不能确认的情况下不能删除!!做好删除的文件等通通备份!!

 

5:java.io.IOException: Could not obtain block: blk_194219614024901469_1100 file=/user/hive/warehouse/src_20090724_log/src_20090724_log

出现这种情况大多是结点断了,没有连接上。

 

6:java.lang.OutOfMemoryError: Java heap space

出现这种异常,明显是jvm内存不够得原因,要修改所有的datanode的jvm内存大小。

Java -Xms1024m -Xmx4096m

一般jvm的最大内存使用应该为总内存大小的一半,我们使用的8G内存,所以设置为4096m,这一值可能依旧不是最优的值。(其实对于最好设置为真实物理内存大小的0.8)

7:出现map%,但是呢reduce到98%左右的时候呢,就直接进failedjobs了

解决办法:

检查mapred.map.tasks是不是设置的太多了,设置太多的话会导致处理大量的小文件

检查mapred.reduce.parallel.copies是否设置合适。

 

8:

系统根目录下的/tmp文件夹是不可以删除的

(jps is based on jvmstat and it needs to be able to secure a memory mapped file on the temporary file system. 

否则bin/hadoop jps

会出现异常:

Exception in thread "main" java.lang.NullPointerException  at sun.jvmstat.perfdata.monitor.protocol.local.LocalVmManager.activeVms(LocalVmManager.java:127)

        at sun.jvmstat.perfdata.monitor.protocol.local.MonitoredHostProvider.activeVms(MonitoredHostProvider.java:133)

        at sun.tools.jps.Jps.main(Jps.java:45)

同时

bin/hive

Unable to create log directory /tmp/hadoopuser

 

 

hadoop java.io.ioexception:cannot open filename /user/...

在eclipse里面写程序运行时,出现了这样的错误,hadoop java.io.ioexception:cannot open filename /user/...

 

弄了半天,还查看了日志文件,可能是1)输入文件名写错了2)把hadoop.temp.dir下全删了,datanode的也是,然后重新格式化重启hadoop3)在安全模式,等待自动停止或手动停止安全模式

 

 

 

 

10/10/25 16:45:39 INFO mapred.JobClient:  map 92% reduce 30%

10/10/25 16:45:44 INFO mapred.JobClient: Task Id : attempt_201010251638_0003_m_000013_1, Status : FAILED

java.io.IOException: Cannot open filename /user/eryk/input/conf

 

额,发现是一个命令打的有问题

错误的命令:

eryk@eryk-1520:~/tmp/hadoop$ bin/hadoop fs -put conf/ input

包含的内容:

eryk@eryk-1520:~/tmp/hadoop$ bin/hadoop fs -lsr

drwxr-xr-x   - eryk supergroup          0 2010-10-25 16:49 /user/eryk/input

-rw-r--r--   1 eryk supergroup       3936 2010-10-25 16:48 /user/eryk/input/capacity-scheduler.xml

drwxr-xr-x   - eryk supergroup          0 2010-10-25 16:49 /user/eryk/input/conf

-rw-r--r--   1 eryk supergroup       3936 2010-10-25 16:49 /user/eryk/input/conf/capacity-scheduler.xml

-rw-r--r--   1 eryk supergroup        535 2010-10-25 16:49 /user/eryk/input/conf/configuration.xsl

-rw-r--r--   1 eryk supergroup        388 2010-10-25 16:49 /user/eryk/input/conf/core-site.xml

-rw-r--r--   1 eryk supergroup       2360 2010-10-25 16:49 /user/eryk/input/conf/hadoop-env.sh

-rw-r--r--   1 eryk supergroup       1245 2010-10-25 16:49 /user/eryk/input/conf/hadoop-metrics.properties

-rw-r--r--   1 eryk supergroup       4190 2010-10-25 16:49 /user/eryk/input/conf/hadoop-policy.xml

-rw-r--r--   1 eryk supergroup        258 2010-10-25 16:49 /user/eryk/input/conf/hdfs-site.xml

-rw-r--r--   1 eryk supergroup       2815 2010-10-25 16:49 /user/eryk/input/conf/log4j.properties

-rw-r--r--   1 eryk supergroup        274 2010-10-25 16:49 /user/eryk/input/conf/mapred-site.xml

-rw-r--r--   1 eryk supergroup         10 2010-10-25 16:49 /user/eryk/input/conf/masters

-rw-r--r--   1 eryk supergroup         10 2010-10-25 16:49 /user/eryk/input/conf/slaves

-rw-r--r--   1 eryk supergroup       1243 2010-10-25 16:49 /user/eryk/input/conf/ssl-client.xml.example

-rw-r--r--   1 eryk supergroup       1195 2010-10-25 16:49 /user/eryk/input/conf/ssl-server.xml.example

-rw-r--r--   1 eryk supergroup        535 2010-10-25 16:48 /user/eryk/input/configuration.xsl

-rw-r--r--   1 eryk supergroup        388 2010-10-25 16:48 /user/eryk/input/core-site.xml

-rw-r--r--   1 eryk supergroup       2360 2010-10-25 16:48 /user/eryk/input/hadoop-env.sh

-rw-r--r--   1 eryk supergroup       1245 2010-10-25 16:48 /user/eryk/input/hadoop-metrics.properties

-rw-r--r--   1 eryk supergroup       4190 2010-10-25 16:48 /user/eryk/input/hadoop-policy.xml

-rw-r--r--   1 eryk supergroup        258 2010-10-25 16:48 /user/eryk/input/hdfs-site.xml

-rw-r--r--   1 eryk supergroup       2815 2010-10-25 16:48 /user/eryk/input/log4j.properties

-rw-r--r--   1 eryk supergroup        274 2010-10-25 16:48 /user/eryk/input/mapred-site.xml

-rw-r--r--   1 eryk supergroup         10 2010-10-25 16:48 /user/eryk/input/masters

-rw-r--r--   1 eryk supergroup         10 2010-10-25 16:48 /user/eryk/input/slaves

-rw-r--r--   1 eryk supergroup       1243 2010-10-25 16:48 /user/eryk/input/ssl-client.xml.example

-rw-r--r--   1 eryk supergroup       1195 2010-10-25 16:48 /user/eryk/input/ssl-server.xml.example

 

发现里面的内容重复了一遍

 

修改后的命令:

eryk@eryk-1520:~/tmp/hadoop$ bin/hadoop fs -put conf input

只是去掉了conf后面的"/" 

里面的内容:

eryk@eryk-1520:~/tmp/hadoop$ bin/hadoop fs -lsr

drwxr-xr-x   - eryk supergroup          0 2010-10-25 16:49 /user/eryk/input

-rw-r--r--   1 eryk supergroup       3936 2010-10-25 16:49 /user/eryk/input/capacity-scheduler.xml

-rw-r--r--   1 eryk supergroup        535 2010-10-25 16:49 /user/eryk/input/configuration.xsl

-rw-r--r--   1 eryk supergroup        388 2010-10-25 16:49 /user/eryk/input/core-site.xml

-rw-r--r--   1 eryk supergroup       2360 2010-10-25 16:49 /user/eryk/input/hadoop-env.sh

-rw-r--r--   1 eryk supergroup       1245 2010-10-25 16:49 /user/eryk/input/hadoop-metrics.properties

-rw-r--r--   1 eryk supergroup       4190 2010-10-25 16:49 /user/eryk/input/hadoop-policy.xml

-rw-r--r--   1 eryk supergroup        258 2010-10-25 16:49 /user/eryk/input/hdfs-site.xml

-rw-r--r--   1 eryk supergroup       2815 2010-10-25 16:49 /user/eryk/input/log4j.properties

-rw-r--r--   1 eryk supergroup        274 2010-10-25 16:49 /user/eryk/input/mapred-site.xml

-rw-r--r--   1 eryk supergroup         10 2010-10-25 16:49 /user/eryk/input/masters

-rw-r--r--   1 eryk supergroup         10 2010-10-25 16:49 /user/eryk/input/slaves

-rw-r--r--   1 eryk supergroup       1243 2010-10-25 16:49 /user/eryk/input/ssl-client.xml.example

-rw-r--r--   1 eryk supergroup       1195 2010-10-25 16:49 /user/eryk/input/ssl-server.xml.example

 

分享到:
评论

相关推荐

    Hadoop大数据平台安全问题和解决方案的综述

    Hadoop大数据平台安全问题和解决方案的综述,可以从这里学习到处理问题的思路。

    Hadoop2.0上深度学习的解决方案.docx

    Hadoop2.0上深度学习的解决方案.docx

    Hadoop学习笔记

    自己整理的hadoop学习笔记,很详尽 很真实。linux操作终端下遇到的各种Hadoop常见问题 解决方案

    HADOOP硬实战2

    亚历克斯·霍姆斯 (Alex Holmes)、 梁李印 需要下载了1和2之后,...你将会学习到每个技术的细节,以及当遇到一个具体问题时能够给出对应的解决方案。本书提供了结构良好且易于理解的例子,可用于应对你所遇到的问题。

    HADOOP硬实战1

    你将会学习到每个技术的细节,以及当遇到一个具体问题时能够给出对应的解决方案。本书提供了结构良好且易于理解的例子,可用于应对你所遇到的问题。 本书包含: ·Hadoop和MapReduce的基本概念 ·85个实战和测试...

    大数据技术之-03-Hadoop学习-Hadoop运行模式及常见错误及解决方案.docx

    大数据技术之-03-Hadoop学习-Hadoop运行模式及常见错误及解决方案.docx

    Hadoop学习文档

    分布式系统基础架构Hadoop的安装部署,及过程中遇到的一些问题及解决方案,必备学习指南。

    HADOOP硬实战

    HADOOP硬实战 Hadoop是一个开源的MapReduce平台,设计运行在大型...你将会学习到每个技术的细节,以及当遇到一个具体问题时能够给出对应的解决方案。本书提供了结构良好且易于理解的例子,可用于应对你所遇到的问题。

    Hadoop海量数据处理

    Hadoop是目前最受关注的大数据处理平台和解决方案,并且已经广泛应用于生产环境。本书主要介绍Hadoop技术的相关知识,不但详细介绍了Hadoop、MapReduce、HDFS、Hive和Sqoop,还深入探讨了Hadoop的运维和调优,并包含...

    基于阿里天池大赛学习赛的天猫复购预测案例(搭建Hadoop+spark平台设计实现).zip

    基于阿里天池大赛学习赛的天猫复购预测案例(搭建Hadoop+spark平台设计实现,通过运用预测模型算法,分析挖掘所提供的数据).zip数学建模大赛赛题、解决方案资料,供备赛者学习参考!数学建模大赛赛题、解决方案资料...

    Hadoop2.0上深度学习的解决方案

    本文探讨了如何在一个Hadoop集群中实现和部署深度学习。波士顿的 数据科学团队正在利用尖端工具和算法来优化商业活动,且这些商业活动是基于对用户数据中的深刻透析。数据科学大量使用机器算法,可以帮助我们在数据...

    hadoop知识学习总结

    什么是hadoop: (1)Hadoop是一个开源的框架,可编写和...(2)Hadoop就是一个分布式计算的解决方案.Hadoop的框架最核心的设计就是:HDFS和MapReduce。HDFS为海量的数据提供了存储,则MapReduce为海量的数据提供了计算。

    数据算法 Hadoop Spark大数据处理技巧

    《数据算法:Hadoop/Spark大数据处理技巧》介绍了很多基本设计模式、优化技术和数据挖掘及机器学习解决方案,以解决生物信息学、基因组学、统计和社交网络分析等领域的很多问题。这还概要介绍了MapReduce、Hadoop和...

    数据算法 Hadoop Spark大数据处理技巧.pdf

    Hadoop/Spark大数据处理技巧》介绍了很多基本设计模式、优化技术和数据挖掘及机器学习解决方案,以解决生物信息学、基因组学、统计和社交网络分析等领域的很多问题。这还概要介绍了MapReduce、Hadoop和Spark。, 主要...

    Hadoop实战(第2版)

    你将会学习到每个技术的细节,以及当遇到一个具体问题时能够给出对应的解决方案。本书提供了结构良好且易于理解的例子,可用于应对你所遇到的问题。 《Hadoop硬实战》包含: ·Hadoop和MapReduce的基本概念 ·85...

    Hadoop大数据学习线路图.docx

    Hadoop大数据学习线路图.docx

    数据算法 Hadoop Spark大数据处理技巧 中文PDF

    《数据算法:Hadoop/Spark大数据处理技巧》介绍了很多基本设计模式、优化技术和数据挖掘及机器学习解决方案,以解决生物信息学、基因组学、统计和社交网络分析等领域的很多问题。这还概要介绍了MapReduce、Hadoop和...

    Hadoop平台搭建 1.搭建 步骤文档 2.搭建时要用到的组件安装包

    搭建步骤: 准备硬件环境:确保服务器具备足够的内存、存储和网络带宽等资源。 安装Java环境:Hadoop需要Java运行环境,因此需要先安装Java。...数据备份和容灾:Hadoop可以作为数据备份和容灾的解决方案,

Global site tag (gtag.js) - Google Analytics