1.问题目录表:

Error代码  

failed on connection exception: java.net.ConnectException: Connection refused

3.           : no further information

错误提示“Bad connection to FS. command aborted. exception: Call tolocalhost/127.0.0.1:88

88failed on connection exception: java.net.ConnectException: Connection refused

:no further information”

起初怀疑是fs服务没有启动,但反复关闭启动多次后仍没用,请教高手后,被建议重新格式化namenode,就可以了。

格式化指令如下(在hadoop的bin目录下):

Shell代码  

1.           $ ./hadoop namenode -format

成功之后重启hadoop就可以了

2如果错误还存在,那么手动删除文件

Error代码  

1.           $ bin/hadoop fs -ls /

// :: INFO ipc.Client: Retrying connect to server: localhost/

:. Already tried  time(s).

// :: INFO ipc.Client: Retrying connect to server: localhost/

:. Already tried  time(s).

// :: INFO ipc.Client: Retrying connect to server: localhost/

:. Already tried  time(s).

// :: INFO ipc.Client: Retrying connect to server: localhost/

:. Already tried  time(s).

// :: INFO ipc.Client: Retrying connect to server: localhost/

:. Already tried  time(s).

// :: INFO ipc.Client: Retrying connect to server: localhost/

:. Already tried  time(s).

// :: INFO ipc.Client: Retrying connect to server: localhost/

:. Already tried  time(s).

// :: INFO ipc.Client: Retrying connect to server: localhost/

:. Already tried  time(s).

// :: INFO ipc.Client: Retrying connect to server: localhost/

:. Already tried  time(s).

// :: INFO ipc.Client: Retrying connect to server: localhost/

:. Already tried  time(s).

Error代码  

1.           Bad connection to FS. command aborted.

错误提示“Bad connection to FS. command aborted.”

把你DataNode上的DFS数据全删了,再重新格式化NameNode。

即:先将你D盘下tmp目录下所有文件删了,在重复上面第一点的过程

hadoop格式化失败原因

[root@hadoop home]# hadoop namenode -format

Warning: $HADOOP_HOME is deprecated.





14/01/24 11:41:59 INFO namenode.NameNode: STARTUP_MSG: 

/************************************************************

STARTUP_MSG: Starting NameNode

STARTUP_MSG:   host = hadoop/192.168.174.174

STARTUP_MSG:   args = [-format]

STARTUP_MSG:   version = 1.1.2

STARTUP_MSG:   build =https://svn.apache.org/repos/asf/hadoop/common/branches/branch-1.1 -r 1440782;compiled by 'hortonfo' on Thu Jan 31 02:03:24 UTC 2013

************************************************************/

Re-format filesystem in /usr/java/hadoop/tmp/dfs/name ? (Y or N) y

Format aborted in /usr/java/hadoop/tmp/dfs/name

14/01/24 11:42:04 INFO namenode.NameNode: SHUTDOWN_MSG: 

/************************************************************

SHUTDOWN_MSG: Shutting down NameNode at hadoop/192.168.174.174

************************************************************/

随后启动hadoop,发现http://hdp0:5007无法显示。

将cd/usr/java/hadoop/tmp/dfs文件夹整个删除。然后再格,成功!!!

[root@hadoop dfs]# hadoop namenode -format

Warning: $HADOOP_HOME is deprecated.





14/01/24 11:44:59 INFO namenode.NameNode: STARTUP_MSG: 

/************************************************************

STARTUP_MSG: Starting NameNode

STARTUP_MSG:   host = hadoop/192.168.174.174

STARTUP_MSG:   args = [-format]

STARTUP_MSG:   version = 1.1.2

STARTUP_MSG:   build = https://svn.apache.org/repos/asf/hadoop/common/branches/branch-1.1-r 1440782; compiled by 'hortonfo' on Thu Jan 31 02:03:24 UTC 2013

************************************************************/

14/01/24 11:44:59 INFO util.GSet: VM type       = 32-bit

14/01/24 11:44:59 INFO util.GSet: 2% max memory = 19.33375 MB

14/01/24 11:44:59 INFO util.GSet: capacity      = 2^22 = 4194304entries

14/01/24 11:44:59 INFO util.GSet: recommended=4194304, actual=4194304

14/01/24 11:45:00 INFO namenode.FSNamesystem: fsOwner=root

14/01/24 11:45:00 INFO namenode.FSNamesystem: supergroup=supergroup

14/01/24 11:45:00 INFO namenode.FSNamesystem: isPermissionEnabled=false

14/01/24 11:45:00 INFO namenode.FSNamesystem: dfs.block.invalidate.limit=100

14/01/24 11:45:00 INFO namenode.FSNamesystem: isAccessTokenEnabled=falseaccessKeyUpdateInterval=0 min(s), accessTokenLifetime=0 min(s)

14/01/24 11:45:00 INFO namenode.NameNode: Caching file names occuring more than10 times 

14/01/24 11:45:00 INFO common.Storage: Image file of size 110 saved in 0seconds.

14/01/24 11:45:00 INFO namenode.FSEditLog: closing edit log: position=4,editlog=/usr/java/hadoop/tmp/dfs/name/current/edits

14/01/24 11:45:00 INFO namenode.FSEditLog: close success: truncate to 4,editlog=/usr/java/hadoop/tmp/dfs/name/current/edits

14/01/24 11:45:01 INFO common.Storage: Storage directory/usr/java/hadoop/tmp/dfs/name has been successfully formatted.

14/01/24 11:45:01 INFO namenode.NameNode: SHUTDOWN_MSG: 

/************************************************************

SHUTDOWN_MSG: Shutting down NameNode at hadoop/192.168.174.174

************************************************************//************************************************************

STARTUP_MSG: Starting NameNode

STARTUP_MSG:   host = hdp0/192.168.221.100

STARTUP_MSG:   args = [-format]

STARTUP_MSG:   version = 0.20.2

STARTUP_MSG:   build = https://svn.apache.org/repos/asf/hadoop/common/branches/branch-0.20 -r911707; compiled
by 'chrisdo' on Fri Feb 19 08:07:34 UTC 2010

************************************************************/

11/04/12 15:33:30 INFO namenode.FSNamesystem:fsOwner=hadoop,hadoop,adm,dialout,cdrom,plugdev,lpadmin,admin,sambashare

11/04/12 15:33:30 INFO namenode.FSNamesystem: supergroup=supergroup

11/04/12 15:33:30 INFO namenode.FSNamesystem: isPermissionEnabled=true

11/04/12 15:33:31 INFO common.Storage: Image file of size 96 saved in 0seconds.

11/04/12 15:33:31 INFO common.Storage: Storage directory /home/hadoop/dfs/namehas been successfully formatted.

11/04/12 15:33:31 INFO namenode.NameNode: SHUTDOWN_MSG: 

/************************************************************

SHUTDOWN_MSG: Shutting down NameNode at hdp0/192.168.221.100

************************************************************/


hadoop创建两大错误:Bad connection to FS. command aborted. exception和Shutting down NameNode at hadoop的更多相关文章

  1. hadoop创建两大错误:Bad connection to FS. command aborted. exception和Shutting down NameNod...

    我的hadoop启动后,各个节点都正常,但是无法查看hdfs目录,错误提示 Bad connection to FS. command aborted.  查了下网上的解决办法,主要是删除tmp下的所 ...

  2. Bad connection to FS. command aborted. exception: Call to chaoren/192.168.80.100:9000 failed on connection exception: java.net.ConnectException: Connection refused

    Bad connection to FS. command aborted. exception: Call to chaoren/192.168.80.100:9000 failed on conn ...

  3. hadoop的两大核心之一:HDFS总结

    什么是HDFS? hadoop distributed file system(hadoop分布式文件系统) 是一种允许文件通过网络在多台主机上分享的文件系统, 可让多机器上的多用户分享文件和存储空间 ...

  4. Python 数据库的Connection、Cursor两大对象

    Python 数据库的Connection.Cursor两大对象 pymysql是Python中操作MySQL的模块,其使用方法和py2的MySQLdb几乎相同. Python 数据库图解流程 Con ...

  5. hadoop两大核心之一:MapReduce总结

    MapReduce是一种分布式计算模型,由Google提出,主要用于搜索领域,MapReduce程序 本质上是并行运行的,因此可以解决海量数据的计算问题. MapReduce任务过程被分为两个处理阶段 ...

  6. Go 语言的下一个大版本:Go 2.0 被安排上了(全面兼容1.X,改进错误处理和泛型这两大主题)

    今年 8 月 Go 开发团队公布了 Go 2.0 的设计草案,包括错误处理和泛型这两大主题.现在备受瞩目的 Go 2.0 又有了新动向 —— 昨日 Go 开发团队在其官方博客表示,Go 2 已经被安排 ...

  7. 敏捷数据科学:用Hadoop创建数据分析应用

    敏捷数据科学:用Hadoop创建数据分析应用(数据分析最佳实践入门敏捷大数据首作分步骤|全流程演示思路.工具与方法) [美]Russell Jurney(拉塞尔·朱尔尼) 著   冯文中 朱洪波 译 ...

  8. hadoop学习;大数据集在HDFS中存为单个文件;安装linux下eclipse出错解决;查看.class文件插件

    sudo apt-get install eclipse 安装后打开eclipse,提示出错 An error has occurred. See the log file /home/pengeor ...

  9. solr6.3 + Hbase Indexer使用MR创建索引,错误Bad return type

    使用solr6.3 + Hbase Indexer ,通过Hbase-indexer从Hbase建立索引到solr中,进行全文搜索. 两种实现方式:① 开启hbase-indexer进行实时同步新数据 ...

随机推荐

  1. 关于wireshark的使用

    1.简介 Wireshark(前称Ethereal)是一个网络封包分析软件.网络封包分析软件的功能是撷取网络封包,并尽可能显示出最为详细的网络封包资料.Wireshark使用WinPCAP作为接口,直 ...

  2. MyBatis从入门到精通(第9章):Spring集成MyBatis(下)

    MyBatis从入门到精通(第9章):Spring集成MyBatis(下) springmvc执行流程原理 mybatis-spring  可以帮助我们将MyBatis代码无缝整合到Spring中.使 ...

  3. [原]排错实战——通过对比分析sysinternals事件修复程序功能异常

    原调试debug排错troubleshootprocess monitorsysinternals 缘起 最近,我们程序的某个功能在一台机器上不正常,但是在另外一台机器上却是正常的.代码是同一份,vs ...

  4. css 传数据套路

    <input type=hidden> 那么该标签就不会显示 但是我们可以用这个标签储存数据 这是一个利用标签元素隐藏

  5. DataStructuresAndAlgorithm--字谜游戏

    参考:http://tieba.baidu.com/p/2071585293 输入是由一些字母构成的一个二维数组以及一些单词组成.目标是要找出字谜中的单词,这些单词可能是水平.垂直或沿对角线上任何方向 ...

  6. Python模块——base64

    简介 base64模块是用来作base64编码解码,常用于小型数据的传输.编码后的数据是一个字符串,其包括a-z.A-Z.0-9./.+共64个字符,即可用6个字节表示,写出数值就是0-63.故三个字 ...

  7. CkEditor - Custom CSS自定义样式

    CkEditor是目前世界上最多人用的富文本编辑器.遇上客户提需求,要改一下编辑器的样式,那就是深入CkEditor的底层来修改源码. 修改完的样式是这样,黑边,蓝底,迷之美学.这就是男人自信的表现, ...

  8. 吴裕雄--天生自然 PYTHON3开发学习:XML 解析

    <collection shelf="New Arrivals"> <movie title="Enemy Behind"> <t ...

  9. D - Daydreaming Stockbroker Gym - 101550D

    题目链接:http://codeforces.com/gym/101550/attachments 总的来说就是要: 极大值卖出,极小值买入, 再加上端点时的特判. 还有就是会有连续几天股票价格相同的 ...

  10. SQL服务器攻击总结-注入

    查库选择convert(int,db_name())sysobjects 查当前表id,从sysobjects中选择id,xtype ='u'//此处要记录下数据库的id syscolumns查表对应 ...