Unable to load native-hadoop library for your platform(已解决)
1、增加调试信息寻找问题
2、两种方式解决unable to load native-hadoop library for you platform
附:libc/glibc/glib简介
参考:
1、http://my.oschina.net/swuly302/blog/515853【66号公路: Hadoop Unable to load native-hadoop library for your platform】
2、http://blog.sina.com.cn/s/blog_4eca88390102vn86.html
增加调试信息寻找问题
在执行hdfs命令时,会有一个警告:
WARN util.NativeCodeLoader: Unable to load native-hadoop library for your platform... using builtin-java classes where applicable
我们增加调试信息看问题出在了哪里。
增加调试信息有两种方式,
1、在执行命令前加一条如下命令:
export HADOOP_ROOT_LOGGER=DEBUG,console
比如:
[wangqi@node001 ~]$ export HADOOP_ROOT_LOGGER=DEBUG,console [wangqi@node001 ~]$ hdfs dfs -ls /
2、在$HADOOP_CONF_DIR/log4j.properties(hadoop2.6.0的路径是/home/wangqi/software/hadoop-2.6.0/etc/hadoop/log4j.properties)文件中添加如下代码:
log4j.logger.org.apache.hadoop.util.NativeCodeLoader=DEBUG
我选择的是第二种(因为后面的一种解决方案也需要动这个文件)。
然后执行一条命令,查看调试信息,如下:
[wangqi@node001 ~]$ hdfs dfs -ls / 16/01/05 15:05:49 DEBUG util.NativeCodeLoader: Trying to load the custom-built native-hadoop library... 16/01/05 15:05:49 DEBUG util.NativeCodeLoader: Failed to load native-hadoop with error: java.lang.UnsatisfiedLinkError: no hadoop in java.library.path 16/01/05 15:05:49 DEBUG util.NativeCodeLoader: java.library.path=/home/wangqi/software/hadoop-2.6.0/lib 16/01/05 15:05:49 WARN util.NativeCodeLoader: Unable to load native-hadoop library for your platform... using builtin-java classes where applicable Found 1 items drwxr-xr-x - wangqi supergroup 0 2016-01-05 10:07 /user
问题出来了。对于这个问题,网上有的解决方案是加两个软链接,即:
ln -s libhadoop.so.1.0.0 libhadoop.so ln -s libhdfs.so.0.0.0 libhdfs.so
但我加上了这两个软链接,问题依旧。
两种方式解决unable to load native-hadoop library for you platform
我们查看一下libhadoop.so.1.0.0的glibc版本,如下:
[wangqi@node001 native]$ ldd libhadoop.so ./libhadoop.so: /lib64/libc.so.6: version `GLIBC_2.14' not found (required by ./libhadoop.so) linux-vdso.so.1 => (0x00007fffb53ff000) libdl.so.2 => /lib64/libdl.so.2 (0x00007fbb73129000) libc.so.6 => /lib64/libc.so.6 (0x00007fbb72d94000) /lib64/ld-linux-x86-64.so.2 (0x000000399b800000)
问题其实已经出现了,libhadoop.so需要的glibc版本是glibc_2.14,没有找到。
我们再看一下当前系统的glibc版本,如下:
[wangqi@node001 native]$ ldd --version ldd (GNU libc) 2.12 Copyright (C) 2010 Free Software Foundation, Inc. This is free software; see the source for copying conditions. There is NO warranty; not even for MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE. Written by Roland McGrath and Ulrich Drepper.
可以看到,当前系统的glibc版本是2.12。
那么怎么解决这个警告呢?这里提供两种方式。
1、配置$HADOOP_CONF_DIR/log4j.properties/log4j.properties文件来忽略掉这个警告,即将前面配置的log4j.logger.org.apache.hadoop.util.NativeCodeLoader=DEBUG该成:
log4j.logger.org.apache.hadoop.util.NativeCodeLoader=ERROR
2、升级系统的glib版本。
下载glibc-2.14.tar.bz2,地址为:http://ftp.ntu.edu.tw/gnu/glibc/
下载glibc-linuxthreads-2.5.tar.bz2,地址为:http://ftp.ntu.edu.tw/gnu/glibc/
安装步骤如下:
1) 把下载的bz2包放到一个文件夹下
[wangqi@node001 download]$ ls glibc-2.14.tar.bz2 glibc-linuxthreads-2.5.tar.bz2
2) 解压glibc-2.14.tar.bz2到当前目录
[wangqi@node001 download]$ tar -xjvf glibc-2.14.tar.bz2 [wangqi@node001 download]$ ls glibc-2.14.tar.bz2 glibc-2.14 glibc-linuxthreads-2.5.tar.bz2
3) 解压glibc-linuxthreads-2.5.tar.bz2到glibc-2.14中
[wangqi@node001 download]$ cd glibc-2.14 [wangqi@node001 glibc-2.14]$ tar -xjvf ../glibc-linuxthreads-2.5.tar.bz2
此时,glibc-2.14目录下会多出两个文件夹,即linuxthreads和linuxthreads_db
4) 回到上一级目录,执行如下命令:
//回到上一级目录 [wangqi@node001 glibc-2.14]$ cd .. //加上优化开关,否则会出现错误'#error "glibc cannot be compiled without optimization"' [wangqi@node001 download]$ export CFLAGS="-g -O2"
5) 执行如下命令:
[wangqi@node001 download]$ glibc-2.14/configure --prefix=/usr --disable-profile --enable-add-ons --with-headers=/usr/include --with-binutils=/usr/bin --disable-sanity-checks
6) 执行make
//编译,执行很久(5-10分钟),可能出错,出错再重新执行 [wangqi@node001 download]$ make
7) 执行make install
//安装,必须root用户执行,执行很久 [wangqi@node001 download]$ sudo make install
8) 使用命令ls -l /lib/libc.so.6查看是否升级成功
[wangqi@node001 download]$ ll /lib64/libc.so.6 lrwxrwxrwx 1 root root 11 Nov 12 09:24 /lib/libc.so.6 -> libc-2.14.so
9) 重启hadoop
[wangqi@node002 ~]$ stop-dfs.sh [wangqi@node002 ~]$ stop-yarn.sh
10) 执行一条hdfs命令,发现本地库被成功加载
[wangqi@node001 ~]$ export HADOOP_ROOT_LOGGER=DEBUG,console [wangqi@node001 ~]$ hdfs dfs -ls / 16/01/05 20:02:40 DEBUG util.Shell: setsid exited with exit code 0 16/01/05 20:02:41 DEBUG util.NativeCodeLoader: Trying to load the custom-built native-hadoop library... 16/01/05 20:02:41 DEBUG util.NativeCodeLoader: Loaded the native-hadoop library 16/01/05 20:02:42 DEBUG ipc.ProtobufRpcEngine: Call: getListing took 2ms Found 2 items drwxrwx--- - wangqi supergroup 0 2016-01-05 19:40 /tmp drwxr-xr-x - wangqi supergroup 0 2016-01-05 19:41 /user
附:libc/glibc/glib
glibc和libc都是Linux下的C函数库。
libc是Linux下的ANSIC函数库;glibc是Linux下的GUNC函数库。
glib是用C写的一些utilities,即C的工具库,和libc/glibc没有关系。
glibc是linux下面c标准库的实现,即GNU C Library。glibc本身是GNU旗下的C标准库,后来逐渐成为了Linux的标准c库,而Linux下原来的标准c库Linux libc逐渐不再被维护。
glibc在/lib目录下的.so文件为libc.so.6。
查看当前系统的glibc版本的两种方法:
[root@node001 ~]# ll /lib64/libc.so.6 lrwxrwxrwx. 1 root root 12 Oct 11 00:27 /lib64/libc.so.6 -> libc-2.12.so
[root@node001 ~]# ldd --version ldd (GNU libc) 2.12 Copyright (C) 2010 Free Software Foundation, Inc. This is free software; see the source for copying conditions. There is NO warranty; not even for MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE. Written by Roland McGrath and Ulrich Drepper.
这两种方法都可以看到当前系统的glibc的版本是2.12。
Unable to load native-hadoop library for your platform(已解决)的更多相关文章
- 【转】Unable to load native-hadoop library for your platform(已解决)
1.增加调试信息寻找问题 2.两种方式解决unable to load native-hadoop library for you platform 附:libc/glibc/glib简介 参考: 1 ...
- 关于cocos2dx 3.0升级崩溃报错(unable to load native library) 和(Fatal signal 11 (SIGSEGV) at 0x00000000)
近期一直在Windows平台开发cocos-2dx游戏,期间做了一次引擎升级,升级到了3.0正式版本号.Windows平台上表现非常正常,没有出现什么问题. 上周五准备公布一个安卓包,编译非常轻松的就 ...
- error:informix Unable to load translation shared library 解决方案
错误:设置informix ODBC时“error:informix Unable to load translation shared library ” 原因 INFORMIXDIR环境变量在操作 ...
- unable to boot the simulator,无法启动模拟器已解决
突然模拟器报错:unable to boot the simulator(无法启动模拟器) 试了好几种解决办法,删除所有的模拟器重启以后再添加,删除钥匙串登陆中的证书,重新安装Xcode都不行 最后通 ...
- macos解决Hadoop之Unable to load native-hadoop library
很显然,native-hadoop library不支持macos,如果是Linux就不会有这个问题.在百度上搜了,要下载在macos上编译的native hadoop library,我在网上下载了 ...
- YARN加载本地库抛出Unable to load native-hadoop library解决办法
YARN加载本地库抛出Unable to load native-hadoop library解决办法 用官方的Hadoop 2.1.0-beta安装后,每次hadoop命令进去都会抛出这样一个War ...
- Genymotion 常见问题Unable to configure the network adapter for the virtual device解决
Genymotion 常见问题Unable to configure the network adapter for the virtual device解决 参考:http://www.pczhis ...
- Hadoop - Unable to load native-hadoop library for your platform
简介 运行hadoop或者spark(调用hdfs等)时,总出现这样的错误“Unable to load native-hadoop library for your platform”,其实是无法加 ...
- [hadoop] hadoop “util.NativeCodeLoader: Unable to load native-hadoop library for your platform”
执行 bin/hdfs dfs -mkdir /user,创建目录时出现警告信息. WARN util.NativeCodeLoader: Unable to load native-hadoop l ...
随机推荐
- Python __setitem__()、__getitem__()、__delitem__()
转载:http://blog.csdn.net/xhw88398569/article/details/48690163 __xxxitem__:使用 [''] 的方式操作属性时被调用 __setit ...
- 在运行myeclipse10注册机时,显示找不到com.sun.java.swing.plaf.nimbus.NimbusLookAndFeel这个包
在win7下安装MyEclipse10.安装完成之后运行注册机,总是提示classnotfond显示找不到com.sun.java.swing.plaf.nimbus.NimbusLookAndFee ...
- HDU 3199 Hamming Problem
Hamming Problem Time Limit: 2000/1000 MS (Java/Others) Memory Limit: 32768/32768 K (Java/Others) Tot ...
- NodeJS应用程序设置为window service-辅助工具(C#)
1.修改nssm,去对话框后 2.生成批处理文件,执行 3.将nssm.exe.node.exe放在资源文件里面 附代码 工具
- LeetCode:杨辉三角【118】
LeetCode:杨辉三角[118] 题目描述 给定一个非负整数 numRows,生成杨辉三角的前 numRows 行. 在杨辉三角中,每个数是它左上方和右上方的数的和. 示例: 输入: 5 输出: ...
- OC导入框架方式#import、@import的区别
#import负责导入程序所需的文件的信息导入到程序中,随着程序所需的文件越来越多,程序就要导入更多的文件,这就带来了越来越长的编译时间,而且有大量重复的.为了解决这个问题可以采用以下办法解决,创建. ...
- 每天一个Linux命令(50)netstat命令
netstat命令用来打印Linux中网络系统的状态信息,可让你得知整个Linux系统的网络情况. (1)用法: 用法: netstat [选项参数] (2)功能: ...
- Linux centos开机执行JAR Shell脚本
Linux centos开机执行shell脚本 Linux centos开机执行 java jar 1.编写jar执行脚本 vim start.sh 加入如下内容(根据自己真实路径与数据进行编写) ...
- linux命令详解之df(6/19)
df命令作用是列出文件系统的整体磁盘空间使用情况.可以用来查看磁盘已被使用多少空间和还剩余多少空间. df命令显示系统中包含每个文件名参数的磁盘使用情况,如果没有文件名参数,则显示所有当前已挂载文件系 ...
- python之使用__future__(解决版本不同,不兼容问题)
Python的新版本会引入新的功能,但是,实际上这些功能在上一个老版本中就已经存在了.要“试用”某一新的特性,就可以通过导入__future__模块的某些功能来实现. 例如,Python 2.7的整数 ...