1.问题目录表:

Error代码  

failed on connection exception: java.net.ConnectException: Connection refused

3.           : no further information

错误提示“Bad connection to FS. command aborted. exception: Call tolocalhost/127.0.0.1:88

88failed on connection exception: java.net.ConnectException: Connection refused

:no further information”

起初怀疑是fs服务没有启动,但反复关闭启动多次后仍没用,请教高手后,被建议重新格式化namenode,就可以了。

格式化指令如下(在hadoop的bin目录下):

Shell代码  

1.           $ ./hadoop namenode -format

成功之后重启hadoop就可以了

2如果错误还存在,那么手动删除文件

Error代码  

1.           $ bin/hadoop fs -ls /

// :: INFO ipc.Client: Retrying connect to server: localhost/

:. Already tried  time(s).

// :: INFO ipc.Client: Retrying connect to server: localhost/

:. Already tried  time(s).

// :: INFO ipc.Client: Retrying connect to server: localhost/

:. Already tried  time(s).

// :: INFO ipc.Client: Retrying connect to server: localhost/

:. Already tried  time(s).

// :: INFO ipc.Client: Retrying connect to server: localhost/

:. Already tried  time(s).

// :: INFO ipc.Client: Retrying connect to server: localhost/

:. Already tried  time(s).

// :: INFO ipc.Client: Retrying connect to server: localhost/

:. Already tried  time(s).

// :: INFO ipc.Client: Retrying connect to server: localhost/

:. Already tried  time(s).

// :: INFO ipc.Client: Retrying connect to server: localhost/

:. Already tried  time(s).

// :: INFO ipc.Client: Retrying connect to server: localhost/

:. Already tried  time(s).

Error代码  

1.           Bad connection to FS. command aborted.

错误提示“Bad connection to FS. command aborted.”

把你DataNode上的DFS数据全删了,再重新格式化NameNode。

即:先将你D盘下tmp目录下所有文件删了,在重复上面第一点的过程

hadoop格式化失败原因

[root@hadoop home]# hadoop namenode -format

Warning: $HADOOP_HOME is deprecated.





14/01/24 11:41:59 INFO namenode.NameNode: STARTUP_MSG: 

/************************************************************

STARTUP_MSG: Starting NameNode

STARTUP_MSG:   host = hadoop/192.168.174.174

STARTUP_MSG:   args = [-format]

STARTUP_MSG:   version = 1.1.2

STARTUP_MSG:   build =https://svn.apache.org/repos/asf/hadoop/common/branches/branch-1.1 -r 1440782;compiled by 'hortonfo' on Thu Jan 31 02:03:24 UTC 2013

************************************************************/

Re-format filesystem in /usr/java/hadoop/tmp/dfs/name ? (Y or N) y

Format aborted in /usr/java/hadoop/tmp/dfs/name

14/01/24 11:42:04 INFO namenode.NameNode: SHUTDOWN_MSG: 

/************************************************************

SHUTDOWN_MSG: Shutting down NameNode at hadoop/192.168.174.174

************************************************************/

随后启动hadoop,发现http://hdp0:5007无法显示。

将cd/usr/java/hadoop/tmp/dfs文件夹整个删除。然后再格,成功!!!

[root@hadoop dfs]# hadoop namenode -format

Warning: $HADOOP_HOME is deprecated.





14/01/24 11:44:59 INFO namenode.NameNode: STARTUP_MSG: 

/************************************************************

STARTUP_MSG: Starting NameNode

STARTUP_MSG:   host = hadoop/192.168.174.174

STARTUP_MSG:   args = [-format]

STARTUP_MSG:   version = 1.1.2

STARTUP_MSG:   build = https://svn.apache.org/repos/asf/hadoop/common/branches/branch-1.1-r 1440782; compiled by 'hortonfo' on Thu Jan 31 02:03:24 UTC 2013

************************************************************/

14/01/24 11:44:59 INFO util.GSet: VM type       = 32-bit

14/01/24 11:44:59 INFO util.GSet: 2% max memory = 19.33375 MB

14/01/24 11:44:59 INFO util.GSet: capacity      = 2^22 = 4194304entries

14/01/24 11:44:59 INFO util.GSet: recommended=4194304, actual=4194304

14/01/24 11:45:00 INFO namenode.FSNamesystem: fsOwner=root

14/01/24 11:45:00 INFO namenode.FSNamesystem: supergroup=supergroup

14/01/24 11:45:00 INFO namenode.FSNamesystem: isPermissionEnabled=false

14/01/24 11:45:00 INFO namenode.FSNamesystem: dfs.block.invalidate.limit=100

14/01/24 11:45:00 INFO namenode.FSNamesystem: isAccessTokenEnabled=falseaccessKeyUpdateInterval=0 min(s), accessTokenLifetime=0 min(s)

14/01/24 11:45:00 INFO namenode.NameNode: Caching file names occuring more than10 times 

14/01/24 11:45:00 INFO common.Storage: Image file of size 110 saved in 0seconds.

14/01/24 11:45:00 INFO namenode.FSEditLog: closing edit log: position=4,editlog=/usr/java/hadoop/tmp/dfs/name/current/edits

14/01/24 11:45:00 INFO namenode.FSEditLog: close success: truncate to 4,editlog=/usr/java/hadoop/tmp/dfs/name/current/edits

14/01/24 11:45:01 INFO common.Storage: Storage directory/usr/java/hadoop/tmp/dfs/name has been successfully formatted.

14/01/24 11:45:01 INFO namenode.NameNode: SHUTDOWN_MSG: 

/************************************************************

SHUTDOWN_MSG: Shutting down NameNode at hadoop/192.168.174.174

************************************************************//************************************************************

STARTUP_MSG: Starting NameNode

STARTUP_MSG:   host = hdp0/192.168.221.100

STARTUP_MSG:   args = [-format]

STARTUP_MSG:   version = 0.20.2

STARTUP_MSG:   build = https://svn.apache.org/repos/asf/hadoop/common/branches/branch-0.20 -r911707; compiled
by 'chrisdo' on Fri Feb 19 08:07:34 UTC 2010

************************************************************/

11/04/12 15:33:30 INFO namenode.FSNamesystem:fsOwner=hadoop,hadoop,adm,dialout,cdrom,plugdev,lpadmin,admin,sambashare

11/04/12 15:33:30 INFO namenode.FSNamesystem: supergroup=supergroup

11/04/12 15:33:30 INFO namenode.FSNamesystem: isPermissionEnabled=true

11/04/12 15:33:31 INFO common.Storage: Image file of size 96 saved in 0seconds.

11/04/12 15:33:31 INFO common.Storage: Storage directory /home/hadoop/dfs/namehas been successfully formatted.

11/04/12 15:33:31 INFO namenode.NameNode: SHUTDOWN_MSG: 

/************************************************************

SHUTDOWN_MSG: Shutting down NameNode at hdp0/192.168.221.100

************************************************************/


hadoop创建两大错误:Bad connection to FS. command aborted. exception和Shutting down NameNode at hadoop的更多相关文章

  1. hadoop创建两大错误:Bad connection to FS. command aborted. exception和Shutting down NameNod...

    我的hadoop启动后,各个节点都正常,但是无法查看hdfs目录,错误提示 Bad connection to FS. command aborted.  查了下网上的解决办法,主要是删除tmp下的所 ...

  2. Bad connection to FS. command aborted. exception: Call to chaoren/192.168.80.100:9000 failed on connection exception: java.net.ConnectException: Connection refused

    Bad connection to FS. command aborted. exception: Call to chaoren/192.168.80.100:9000 failed on conn ...

  3. hadoop的两大核心之一:HDFS总结

    什么是HDFS? hadoop distributed file system(hadoop分布式文件系统) 是一种允许文件通过网络在多台主机上分享的文件系统, 可让多机器上的多用户分享文件和存储空间 ...

  4. Python 数据库的Connection、Cursor两大对象

    Python 数据库的Connection.Cursor两大对象 pymysql是Python中操作MySQL的模块,其使用方法和py2的MySQLdb几乎相同. Python 数据库图解流程 Con ...

  5. hadoop两大核心之一:MapReduce总结

    MapReduce是一种分布式计算模型,由Google提出,主要用于搜索领域,MapReduce程序 本质上是并行运行的,因此可以解决海量数据的计算问题. MapReduce任务过程被分为两个处理阶段 ...

  6. Go 语言的下一个大版本:Go 2.0 被安排上了(全面兼容1.X,改进错误处理和泛型这两大主题)

    今年 8 月 Go 开发团队公布了 Go 2.0 的设计草案,包括错误处理和泛型这两大主题.现在备受瞩目的 Go 2.0 又有了新动向 —— 昨日 Go 开发团队在其官方博客表示,Go 2 已经被安排 ...

  7. 敏捷数据科学:用Hadoop创建数据分析应用

    敏捷数据科学:用Hadoop创建数据分析应用(数据分析最佳实践入门敏捷大数据首作分步骤|全流程演示思路.工具与方法) [美]Russell Jurney(拉塞尔·朱尔尼) 著   冯文中 朱洪波 译 ...

  8. hadoop学习;大数据集在HDFS中存为单个文件;安装linux下eclipse出错解决;查看.class文件插件

    sudo apt-get install eclipse 安装后打开eclipse,提示出错 An error has occurred. See the log file /home/pengeor ...

  9. solr6.3 + Hbase Indexer使用MR创建索引,错误Bad return type

    使用solr6.3 + Hbase Indexer ,通过Hbase-indexer从Hbase建立索引到solr中,进行全文搜索. 两种实现方式:① 开启hbase-indexer进行实时同步新数据 ...

随机推荐

  1. Ubuntu的man中文包安装

    apt-get install manpages-zh vi /etc/manpath.config :,$s#/usr/share/man#/usr/share/man/zh_CN#g 第一个命令: ...

  2. 打水滴(BFS)

    在一个n行m列的网格中,某些位置存在一些水滴.嘟嘟进行q次打水滴操作,每次嘟嘟在某一个网格当中添加一个水滴,当某一网格中的水滴数量超过L时,该网格中的水滴变为四个水滴,并分别向上下左右四个方向飞出,每 ...

  3. Mybatis学习——Mybatis核心配置

    MyBatis的核心配置 在使用MyBatis框架时,设计两个核心的d对象:SqlSessionFactory和SqlSession. SqlsessionFactory SqlSessionFact ...

  4. D - Lis on Circle Gym - 102441D (LIS + 线段树)

    There are nn people at the round gaming table. Each of them has a set of cards. Every card contains ...

  5. 二、提高期(Upping the Ante)

    二.提高期(Upping the Ante) Upping the Ante?这可是第四阶段的词.没办法,Greg Thomson用这个词代表第二阶段,看着喜欢,继续沿用. 经过两三个月的“图象+声音 ...

  6. cassandra 系统分析 架构

    cassandra cassandra是无中心节点的列式数据库 集群管理:      使用gossip算法,最终每个节点都知道集群中的所有节点信息,新增一个节点,新节点发送上线消息,     其他节点 ...

  7. 进程间数据共享 (multiprocess.Manager)

    进程间数据共享 (multiprocess.Manager) 一.进程之间的数据共享 展望未来,基于消息传递的并发编程是大势所趋 即便是使用线程,推荐做法也是将程序设计为大量独立的线程集合,通过消息队 ...

  8. lua 把图片转换成base64

    调用实例 require("ZZBase64") local files local file = io.open("E:\\2342.jpg","r ...

  9. 洛谷P1435 回文子串

    题目背景 IOI2000第一题 题目描述 回文词是一种对称的字符串.任意给定一个字符串,通过插入若干字符,都可以变成回文词.此题的任务是,求出将给定字符串变成回文词所需要插入的最少字符数. 比如 “A ...

  10. 哈夫曼编码的理解(Huffman Coding)

    哈夫曼编码(Huffman Coding),又称霍夫曼编码,是一种编码方式,可变字长编码(VLC)的一种.Huffman于1952年提出一种编码方法,该方法完全依据字符出现概率来构造异字头的平均长度最 ...