1.问题目录表:

Error代码  

failed on connection exception: java.net.ConnectException: Connection refused

3.           : no further information

错误提示“Bad connection to FS. command aborted. exception: Call tolocalhost/127.0.0.1:88

88failed on connection exception: java.net.ConnectException: Connection refused

:no further information”

起初怀疑是fs服务没有启动,但反复关闭启动多次后仍没用,请教高手后,被建议重新格式化namenode,就可以了。

格式化指令如下(在hadoop的bin目录下):

Shell代码  

1.           $ ./hadoop namenode -format

成功之后重启hadoop就可以了

2如果错误还存在,那么手动删除文件

Error代码  

1.           $ bin/hadoop fs -ls /

// :: INFO ipc.Client: Retrying connect to server: localhost/

:. Already tried  time(s).

// :: INFO ipc.Client: Retrying connect to server: localhost/

:. Already tried  time(s).

// :: INFO ipc.Client: Retrying connect to server: localhost/

:. Already tried  time(s).

// :: INFO ipc.Client: Retrying connect to server: localhost/

:. Already tried  time(s).

// :: INFO ipc.Client: Retrying connect to server: localhost/

:. Already tried  time(s).

// :: INFO ipc.Client: Retrying connect to server: localhost/

:. Already tried  time(s).

// :: INFO ipc.Client: Retrying connect to server: localhost/

:. Already tried  time(s).

// :: INFO ipc.Client: Retrying connect to server: localhost/

:. Already tried  time(s).

// :: INFO ipc.Client: Retrying connect to server: localhost/

:. Already tried  time(s).

// :: INFO ipc.Client: Retrying connect to server: localhost/

:. Already tried  time(s).

Error代码  

1.           Bad connection to FS. command aborted.

错误提示“Bad connection to FS. command aborted.”

把你DataNode上的DFS数据全删了,再重新格式化NameNode。

即:先将你D盘下tmp目录下所有文件删了,在重复上面第一点的过程

hadoop格式化失败原因

[root@hadoop home]# hadoop namenode -format

Warning: $HADOOP_HOME is deprecated.





14/01/24 11:41:59 INFO namenode.NameNode: STARTUP_MSG: 

/************************************************************

STARTUP_MSG: Starting NameNode

STARTUP_MSG:   host = hadoop/192.168.174.174

STARTUP_MSG:   args = [-format]

STARTUP_MSG:   version = 1.1.2

STARTUP_MSG:   build =https://svn.apache.org/repos/asf/hadoop/common/branches/branch-1.1 -r 1440782;compiled by 'hortonfo' on Thu Jan 31 02:03:24 UTC 2013

************************************************************/

Re-format filesystem in /usr/java/hadoop/tmp/dfs/name ? (Y or N) y

Format aborted in /usr/java/hadoop/tmp/dfs/name

14/01/24 11:42:04 INFO namenode.NameNode: SHUTDOWN_MSG: 

/************************************************************

SHUTDOWN_MSG: Shutting down NameNode at hadoop/192.168.174.174

************************************************************/

随后启动hadoop,发现http://hdp0:5007无法显示。

将cd/usr/java/hadoop/tmp/dfs文件夹整个删除。然后再格,成功!!!

[root@hadoop dfs]# hadoop namenode -format

Warning: $HADOOP_HOME is deprecated.





14/01/24 11:44:59 INFO namenode.NameNode: STARTUP_MSG: 

/************************************************************

STARTUP_MSG: Starting NameNode

STARTUP_MSG:   host = hadoop/192.168.174.174

STARTUP_MSG:   args = [-format]

STARTUP_MSG:   version = 1.1.2

STARTUP_MSG:   build = https://svn.apache.org/repos/asf/hadoop/common/branches/branch-1.1-r 1440782; compiled by 'hortonfo' on Thu Jan 31 02:03:24 UTC 2013

************************************************************/

14/01/24 11:44:59 INFO util.GSet: VM type       = 32-bit

14/01/24 11:44:59 INFO util.GSet: 2% max memory = 19.33375 MB

14/01/24 11:44:59 INFO util.GSet: capacity      = 2^22 = 4194304entries

14/01/24 11:44:59 INFO util.GSet: recommended=4194304, actual=4194304

14/01/24 11:45:00 INFO namenode.FSNamesystem: fsOwner=root

14/01/24 11:45:00 INFO namenode.FSNamesystem: supergroup=supergroup

14/01/24 11:45:00 INFO namenode.FSNamesystem: isPermissionEnabled=false

14/01/24 11:45:00 INFO namenode.FSNamesystem: dfs.block.invalidate.limit=100

14/01/24 11:45:00 INFO namenode.FSNamesystem: isAccessTokenEnabled=falseaccessKeyUpdateInterval=0 min(s), accessTokenLifetime=0 min(s)

14/01/24 11:45:00 INFO namenode.NameNode: Caching file names occuring more than10 times 

14/01/24 11:45:00 INFO common.Storage: Image file of size 110 saved in 0seconds.

14/01/24 11:45:00 INFO namenode.FSEditLog: closing edit log: position=4,editlog=/usr/java/hadoop/tmp/dfs/name/current/edits

14/01/24 11:45:00 INFO namenode.FSEditLog: close success: truncate to 4,editlog=/usr/java/hadoop/tmp/dfs/name/current/edits

14/01/24 11:45:01 INFO common.Storage: Storage directory/usr/java/hadoop/tmp/dfs/name has been successfully formatted.

14/01/24 11:45:01 INFO namenode.NameNode: SHUTDOWN_MSG: 

/************************************************************

SHUTDOWN_MSG: Shutting down NameNode at hadoop/192.168.174.174

************************************************************//************************************************************

STARTUP_MSG: Starting NameNode

STARTUP_MSG:   host = hdp0/192.168.221.100

STARTUP_MSG:   args = [-format]

STARTUP_MSG:   version = 0.20.2

STARTUP_MSG:   build = https://svn.apache.org/repos/asf/hadoop/common/branches/branch-0.20 -r911707; compiled
by 'chrisdo' on Fri Feb 19 08:07:34 UTC 2010

************************************************************/

11/04/12 15:33:30 INFO namenode.FSNamesystem:fsOwner=hadoop,hadoop,adm,dialout,cdrom,plugdev,lpadmin,admin,sambashare

11/04/12 15:33:30 INFO namenode.FSNamesystem: supergroup=supergroup

11/04/12 15:33:30 INFO namenode.FSNamesystem: isPermissionEnabled=true

11/04/12 15:33:31 INFO common.Storage: Image file of size 96 saved in 0seconds.

11/04/12 15:33:31 INFO common.Storage: Storage directory /home/hadoop/dfs/namehas been successfully formatted.

11/04/12 15:33:31 INFO namenode.NameNode: SHUTDOWN_MSG: 

/************************************************************

SHUTDOWN_MSG: Shutting down NameNode at hdp0/192.168.221.100

************************************************************/


hadoop创建两大错误:Bad connection to FS. command aborted. exception和Shutting down NameNode at hadoop的更多相关文章

  1. hadoop创建两大错误:Bad connection to FS. command aborted. exception和Shutting down NameNod...

    我的hadoop启动后,各个节点都正常,但是无法查看hdfs目录,错误提示 Bad connection to FS. command aborted.  查了下网上的解决办法,主要是删除tmp下的所 ...

  2. Bad connection to FS. command aborted. exception: Call to chaoren/192.168.80.100:9000 failed on connection exception: java.net.ConnectException: Connection refused

    Bad connection to FS. command aborted. exception: Call to chaoren/192.168.80.100:9000 failed on conn ...

  3. hadoop的两大核心之一:HDFS总结

    什么是HDFS? hadoop distributed file system(hadoop分布式文件系统) 是一种允许文件通过网络在多台主机上分享的文件系统, 可让多机器上的多用户分享文件和存储空间 ...

  4. Python 数据库的Connection、Cursor两大对象

    Python 数据库的Connection.Cursor两大对象 pymysql是Python中操作MySQL的模块,其使用方法和py2的MySQLdb几乎相同. Python 数据库图解流程 Con ...

  5. hadoop两大核心之一:MapReduce总结

    MapReduce是一种分布式计算模型,由Google提出,主要用于搜索领域,MapReduce程序 本质上是并行运行的,因此可以解决海量数据的计算问题. MapReduce任务过程被分为两个处理阶段 ...

  6. Go 语言的下一个大版本:Go 2.0 被安排上了(全面兼容1.X,改进错误处理和泛型这两大主题)

    今年 8 月 Go 开发团队公布了 Go 2.0 的设计草案,包括错误处理和泛型这两大主题.现在备受瞩目的 Go 2.0 又有了新动向 —— 昨日 Go 开发团队在其官方博客表示,Go 2 已经被安排 ...

  7. 敏捷数据科学:用Hadoop创建数据分析应用

    敏捷数据科学:用Hadoop创建数据分析应用(数据分析最佳实践入门敏捷大数据首作分步骤|全流程演示思路.工具与方法) [美]Russell Jurney(拉塞尔·朱尔尼) 著   冯文中 朱洪波 译 ...

  8. hadoop学习;大数据集在HDFS中存为单个文件;安装linux下eclipse出错解决;查看.class文件插件

    sudo apt-get install eclipse 安装后打开eclipse,提示出错 An error has occurred. See the log file /home/pengeor ...

  9. solr6.3 + Hbase Indexer使用MR创建索引,错误Bad return type

    使用solr6.3 + Hbase Indexer ,通过Hbase-indexer从Hbase建立索引到solr中,进行全文搜索. 两种实现方式:① 开启hbase-indexer进行实时同步新数据 ...

随机推荐

  1. 洛谷 P2722 总分 Score Inflation && 完全背包模板

    题目传送门 解题思路: 补一个完全背包的模板,跟01背包十分相似,唯一不同在于重量j的枚举顺序. AC代码: #include<cstdio> #include<iostream&g ...

  2. c2000 N2A1 设置 KonNaD Settings & User Manual

    KonNaD Settings & User Manual c2000 N2A1  两个开关都推到左边,都设置成off

  3. 为什么在SSM中的dao层不用写@Repository注解

    1.  Mybatis 接口编程中dao 层接口没有注解和 为什么能被实例化为bean? 在Spring配置Mybatis的文件中我们可以看到如下代码: <bean class="or ...

  4. Spring使用Rabbitmq (简单使用)

    1.pom.xml jar包引用 <dependencies> <dependency> <groupId>org.springframework</grou ...

  5. [Typora ] LaTeX公式输入

    [Typora 笔记] 数学输入整理 1.希腊字母表 大写 md 小写 md \(A\) A \(\alpha\) \alpha \(B\) B \(\beta\) \beta \(\Gamma\) ...

  6. Django2.0——路由配置

    URL配置就像是Django所支撑网站的目录,它的本质是URL模式以及要为该URL模式调用的视图函数之间的映射表.URL需要在urls.py进行配置,与其对应的视图函数写在views.py文件中.ur ...

  7. myeclipse跟tomcat的同步

    一般来说,我们在myeclipse里把文件内容改了并保存之后,直接刷新网页就可以非常直观的看到内容的改变. 这是因为myeclipse检测到文件内容的变动,及时地把新的文件部署到了tomcat上. m ...

  8. Reservoir Computing论文学习

    目录 背景: RC优势: 储备池计算主要理论组成: ESNS数学模型 结构表示 状态方程和输出方程 计算过程 储备池的优化 GA:使用进化算法对参数进行优化: 基于随机梯度下降法的储备池参数优化 参考 ...

  9. gcc -c xx.c 选项讲解

    -c选项表示编译.汇编指定的源文件(也就是编译源文件),但是不进行链接.使用-c选项可以将每一个源文件编译成对应的目标文件. 目标文件是一种中间文件或者临时文件,如果不设置该选项,gcc 一般不会保留 ...

  10. setTimeout()执行时序

    <!DOCTYPE html PUBLIC "-//W3C//DTD XHTML 1.0 Strict//EN" "http://www.w3.org/TR/xht ...