一、

[#|2013-09-16T18:19:02.663+0800|INFO|glassfish3.1.2|javax.enterprise.system.std.com.sun.enterprise.server.logging|_ThreadID=23364;_ThreadName=Thread-2;|2013-09-1618:19:02,663 WARN  DataStreamerException: org.apache.hadoop.ipc.RemoteException: java.io.IOException:
File:xxx could only be replicatedto 0 nodes, instead of 1

atorg.apache.hadoop.hdfs.server.namenode.FSNamesystem.getAdditionalBlock(FSNamesystem.java:1558)

atorg.apache.hadoop.hdfs.server.namenode.NameNode.addBlock(NameNode.java:696)

atsun.reflect.GeneratedMethodAccessor6.invoke(Unknown Source)

atsun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:25)

atjava.lang.reflect.Method.invoke(Method.java:597)

atorg.apache.hadoop.ipc.RPC$Server.call(RPC.java:563)

atorg.apache.hadoop.ipc.Server$Handler$1.run(Server.java:1388)

atorg.apache.hadoop.ipc.Server$Handler$1.run(Server.java:1384)

atjava.security.AccessController.doPrivileged(Native Method)

atjavax.security.auth.Subject.doAs(Subject.java:396)

atorg.apache.hadoop.security.UserGroupInformation.doAs(UserGroupInformation.java:1121)

atorg.apache.hadoop.ipc.Server$Handler.run(Server.java:1382)

atorg.apache.hadoop.ipc.Client.call(Client.java:1070)

atorg.apache.hadoop.ipc.RPC$Invoker.invoke(RPC.java:225)

at$Proxy140.addBlock(Unknown Source)

atsun.reflect.GeneratedMethodAccessor84.invoke(Unknown Source)

atsun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:25)

atjava.lang.reflect.Method.invoke(Method.java:597)

atorg.apache.hadoop.io.retry.RetryInvocationHandler.invokeMethod(RetryInvocationHandler.java:82)

atorg.apache.hadoop.io.retry.RetryInvocationHandler.invoke(RetryInvocationHandler.java:59)

at$Proxy140.addBlock(Unknown Source)

atorg.apache.hadoop.hdfs.DFSClient$DFSOutputStream.locateFollowingBlock(DFSClient.java:3510)

atorg.apache.hadoop.hdfs.DFSClient$DFSOutputStream.nextBlockOutputStream(DFSClient.java:3373)

atorg.apache.hadoop.hdfs.DFSClient$DFSOutputStream.access$2600(DFSClient.java:2589)

atorg.apache.hadoop.hdfs.DFSClient$DFSOutputStream$DataStreamer.run(DFSClient.java:2829)

|#]

二、

[#|2013-09-16T18:19:02.664+0800|INFO|glassfish3.1.2|javax.enterprise.system.std.com.sun.enterprise.server.logging|_ThreadID=23367;_ThreadName=Thread-2;|2013-09-1618:19:02,664 WARN  Error Recovery forblock null bad datanode[0] nodes
== null

|#]

[#|2013-09-16T18:19:02.664+0800|INFO|glassfish3.1.2|javax.enterprise.system.std.com.sun.enterprise.server.logging|_ThreadID=23367;_ThreadName=Thread-2;|2013-09-1618:19:02,664 WARN  Could not get blocklocations. Source file "xxx"-
Aborting...

|#]

三、

[#|2013-09-16T18:20:13.134+0800|SEVERE|glassfish3.1.2|javax.enterprise.system.std.com.sun.enterprise.server.logging|_ThreadID=23467;_ThreadName=Thread-2;|java.util.concurrent.TimeoutException:Timed out(5000 milliseconds) waiting for
operation while connected to xxx:11211

atnet.rubyeye.xmemcached.XMemcachedClient.latchWait(XMemcachedClient.java:2617)

atnet.rubyeye.xmemcached.XMemcachedClient.fetch0(XMemcachedClient.java:617)

atnet.rubyeye.xmemcached.XMemcachedClient.get0(XMemcachedClient.java:1030)

atnet.rubyeye.xmemcached.XMemcachedClient.gets(XMemcachedClient.java:1043)

atnet.rubyeye.xmemcached.XMemcachedClient.gets(XMemcachedClient.java:1065)

at net.rubyeye.xmemcached.XMemcachedClient.gets(XMemcachedClient.java:1054)

atcom.haierpip.service.impl.MemcachedServiceImpl.gets(MemcachedServiceImpl.java:104)

atcom.haierpip.timer.UpdateImgQueueMapJob.updateList(UpdateImgQueueMapJob.java:41)

at com.haierpip.timer.UpdateImgQueueMapJob.executeInternal(UpdateImgQueueMapJob.java:26)

at sun.reflect.GeneratedMethodAccessor64.invoke(UnknownSource)

atsun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:25)

at java.lang.reflect.Method.invoke(Method.java:597)

atorg.springframework.util.MethodInvoker.invoke(MethodInvoker.java:273)

atorg.springframework.scheduling.quartz.MethodInvokingJobDetailFactoryBean$MethodInvokingJob.executeInternal(MethodInvokingJobDetailFactoryBean.java:311)

atorg.springframework.scheduling.quartz.QuartzJobBean.execute(QuartzJobBean.java:113)

at org.quartz.core.JobRunShell.run(JobRunShell.java:202)

atorg.quartz.simpl.SimpleThreadPool$WorkerThread.run(SimpleThreadPool.java:525)

|#]

四、

[#|2013-09-16T18:05:12.983+0800|INFO|glassfish3.1.2|javax.enterprise.system.std.com.sun.enterprise.server.logging|_ThreadID=1595;_ThreadName=Thread-2;|2013-09-1618:05:12,983 INFO  Exception increateBlockOutputStream 10.255.254.6:50010
java.net.ConnectException:Connection timed out

|#]

[#|2013-09-16T18:05:12.983+0800|INFO|glassfish3.1.2|javax.enterprise.system.std.com.sun.enterprise.server.logging|_ThreadID=1595;_ThreadName=Thread-2;|2013-09-1618:05:12,983 INFO  Abandoning blockblk_2971499765308711932_1671045

|#]

[#|2013-09-16T18:05:12.984+0800|INFO|glassfish3.1.2|javax.enterprise.system.std.com.sun.enterprise.server.logging|_ThreadID=1595;_ThreadName=Thread-2;|2013-09-1618:05:12,984 INFO  Excluding datanode10.255.254.6:50010

|#]

五、

2013-09-16 17:56:04,034WARN org.apache.hadoop.hdfs.server.datanode.DataNode: Block report is due, andbeen waiting for it for 708 seconds...

六、

[#|2013-09-16T18:05:40.699+0800|INFO|glassfish3.1.2|javax.enterprise.system.std.com.sun.enterprise.server.logging|_ThreadID=1571;_ThreadName=Thread-2;|2013-09-16 18:05:40,699 INFO  Exception in createBlockOutputStream xxx:50010 java.io.IOException: Bad connect ack with firstBadLink as
xxx.6:50010

 |#]

页面

WARNING : There are about146 missing blocks. Please check the log or run fsck.

最近跑hadoop遇到的一些问题的更多相关文章

  1. 在eclipse上跑hadoop的helloworld

    关于hadoop的用处什么我就不说了,在这里记录下在eclipse上第一次跑hadoop遇到的问题吧~ hadoop的安装我就不说啦,网上教程一大堆~我直接用的公司的Linux上的hadoop. ec ...

  2. 在Docker中跑Hadoop与镜像制作

      重复造轮子,这里使用重新打包生成一个基于Docker的Hadoop镜像:   Hadoop集群依赖的软件分别为:jdk.ssh等,所以只要这两项还有Hadoop相关打包进镜像中去即可: 配置文件准 ...

  3. windows环境下跑hadoop自带的wordcount遇到的问题

    hadoop环境自己之前也接触过,搭建的是一个伪分布的环境,主从节点都在我自己的机子上,即127.0.0.1,当初记得步骤很多很麻烦的样子(可能自己用ubuntu还不够熟练),包括myeclipse. ...

  4. hadoop2.2编程:用ruby跑hadoop的完整实例

    Becareful!  All nodes include  need to install ruby! #!/usr/bin/ruby # Ruby code for map.rb ARGF.eac ...

  5. hadoop跑第一个实例过程

    第一次跑hadoop实例,中间经过了不少弯路,特此记录下来: 第一步:建立一个maven过程,pom.xml文件:(打包为jar包) <dependency> <groupId> ...

  6. 我的第一个hadoop程序

    利用virtualbox+win的开发环境搭设好咯,在win下做开发,利用linux跑hadoop,伪分布式的. 上第一个程序 package org.apache.hadoop.examples; ...

  7. hadoop的自定义数据类型和与关系型数据库交互

    最近有一个需求就是在建模的时候,有少部分数据是postgres的,只能读取postgres里面的数据到hadoop里面进行建模测试,而不能导出数据到hdfs上去. 读取postgres里面的数据库有两 ...

  8. Hadoop - 任务调度系统比较

    1.概述 在Hadoop应用,随着业务指标的迭代,而使其日趋复杂化的时候,管理Hadoop的相关应用会变成一件头疼的事情,如:作业的依赖调度,任务的运行情况的监控,异常问题的排查等,这些问题会是的我们 ...

  9. Cassandra + Eclipse + Hadoop

    配置好eclipse连接hadoop: 参考:http://www.powerxing.com/hadoop-build-project-using-eclipse/ http://blog.csdn ...

随机推荐

  1. 14.3.2.4 Locking Reads 锁定读

    14.3.2.4 Locking Reads 锁定读 如果你的查询数据,然后插入或者更新相关的数据 在同一个事务, 普通的SELECT 语句不足以给予足够保护. 其他事务可以更新或者删除相同的你要查询 ...

  2. boost 的函数式编程库 Phoenix入门学习

    这篇文章是我学习boost phoenix的总结. 序言 Phoenix是一个C++的函数式编程(function programming)库.Phoenix的函数式编程是构建在函数对象上的.因此,了 ...

  3. 理解Windows内核模式与用户模式

     1.基础 执行 Windows 的计算机中的处理器有两个不同模式:"用户模式"和"内核模式". 依据处理器上执行的代码的类型,处理器在两个模式之间切换.应 ...

  4. LeetCode——Populating Next Right Pointers in Each Node II

    Follow up for problem "Populating Next Right Pointers in Each Node". What if the given tre ...

  5. NET MVC RazorEngine 解析模板生成静态页

    ASP.NET MVC 解析模板生成静态页一(RazorEngine) 简述 Razor是ASP.NET MVC 3中新加入的技术,以作为ASPX引擎的一个新的替代项.在早期的MVC版本中默认使用的是 ...

  6. Ello讲述Haar人脸检测:易懂、很详细、值得围观

    源地址:http://www.thinkface.cn/thread-142-1-1.html 由于工作需要,我开始研究人脸检测部分的算法,这期间断断续续地学习Haar分类器的训练以及检测过程,在这里 ...

  7. PyMOTW: heapq¶

    PyMOTW: heapq — PyMOTW Document v1.6 documentation PyMOTW: heapq¶ 模块: heapq 目的: 就地堆排序算法 python版本:New ...

  8. 使用国内源解决Qt在线更新慢的问题

    Qt在线安装更新工具默认使用官方的源,国内访问比较慢,可以在setting中增加国内的源来提高更新速度,如下面的源: http://mirrors.ustc.edu.cn/qtproject/onli ...

  9. java 获取当期时间之前几小时的时间

    Calendar expireDate = Calendar.getInstance(); expireDate.set(Calendar.HOUR_OF_DAY, expireDate.get(Ca ...

  10. Codeforces Round #296 (Div. 2) A B C D

    A:模拟辗转相除法时记录答案 B:3种情况:能降低2,能降低1.不能降低分别考虑清楚 C:利用一个set和一个multiset,把行列分开考虑.利用set自带的排序和查询.每次把对应的块拿出来分成两块 ...