生产环境中hadoop一般会选择64位版本,官方下载的hadoop安装包中的native库是32位的,因此运行64位版本时,需要自己编译64位的native库,并替换掉自带native库。

源码包下的BUILDING.txt,包含官方介绍,如:如何在linux、windows下编译;编译过程中的错误处理;将源码导入eclipse中的步骤等,推荐看一看。

本文环境同:hadoop2.5.2学习及实践笔记(一)—— 伪分布式学习环境搭建

一.编译源码

附:常用工具包网盘路径(部分包非编译时使用):http://pan.baidu.com/s/1c0evtgW

BUILDING.txt文档列举的linux中编译条件如下:

* Unix System

* JDK 1.6+

* Maven 3.0 or later

* Findbugs 1.3.9 (if running findbugs)

* ProtocolBuffer 2.5.0

* CMake 2.6 or newer (if compiling native code)

* Zlib devel (if compiling native code)

* openssl devel ( if compiling native hadoop-pipes )

* Internet connection for first build (to fetch all Maven and Hadoop dependencies)

注:jdk建议使用1.7,楼主使用1.8编译时报错,换回1.7编译成功。

编译过程

  1.  linux系统包安装

# yum install cmake lzo-devel  zlib-devel  gcc autoconf automake libtool   ncurses-devel openssl-devel

  

  2. 安装Maven、Ant、Findbugs

  >解压tar包,并将解压后的目录移动到安装路径

  >配置环境变量

# vim /etc/profile

export MAVEN_HOME=/opt/apache-maven-3.1.4
export ANT_HOME=/opt/apache-ant-1.9.
export FINDBUGS_HOME=/opt/findbugs-2.5.0
export PATH=$PATH:$MAVEN_HOME/bin:$ANT_HOME/bin:$FINDBUGS_HOME/bin

  >环境变量生效

# source /etc/rofile

  >maven国内镜像配置

  修改MAVEN_HOME/conf/settings.xml文件<mirrors>内容

 <mirror>
<id>nexus-osc</id>
<mirrorOf>*</mirrorOf>
<name>Nexus osc</name>
<url>http://maven.oschina.net/content/groups/public/</url>
</mirror>

  3.从源码安装protobuf

  >解压tar包,并进入解压后的根目录

  >编译并安装

# ./configure
# make
# sudo make install

  >验证安装

# protoc --version

  

  4.编译hadoop源码

  >解压源码tar包,并进入解压后的根目录

$ mvn package -DskipTests -Pdist,native -Dtar

  >其他编译选项

  附:BUILDING.txt中原文

  Create binary distribution without native code and without documentation:

  $ mvn package -Pdist -DskipTests -Dtar

 

  Create binary distribution with native code and with documentation:

  $ mvn package -Pdist,native,docs -DskipTests -Dtar

 

  Create source distribution:

  $ mvn package -Psrc -DskipTests

 

  Create source and binary distributions with native code and documentation:

  $ mvn package -Pdist,native,docs,src -DskipTests -Dtar

 

  Create a local staging version of the website (in /tmp/hadoop-site)

  $ mvn clean site; mvn site:stage -DstagingDirectory=/tmp/hadoop-site

  >编译过程中内存溢出错误处理

  编译前设置MAVEN_OPTS环境变量

export MAVEN_OPTS="-Xms256m -Xmx512m" --内存大小自己调节

  

  附:BUILDING.txt中原文

   If the build process fails with an out of memory error, you should be able to fix it by increasing the memory used by maven

  which can be done via the environment variable MAVEN_OPTS.

  Here is an example setting to allocate between 256 and 512 MB of heap space to Maven

  export MAVEN_OPTS="-Xms256m -Xmx512m"

  5.替换native库

  >编译后native路径:Hadoop-2.5.2-src/hadoop-dist/target/hadoop-2.5.2/lib/native

  未替换前,调用相关脚本会报警告,如:

[hadoop@localhost hadoop-2.5.]$ ./sbin/stop-dfs.sh
// :: WARN util.NativeCodeLoader: Unable to load native-hadoop library for your platform... using builtin-java classes where applicable
Stopping namenodes on [localhost]
localhost: stopping namenode
localhost: stopping datanode
Stopping secondary namenodes [0.0.0.0]
0.0.0.0: stopping secondarynamenode
// :: WARN util.NativeCodeLoader: Unable to load native-hadoop library for your platform... using builtin-java classes where applicable

  编译后,替换掉native目录下文件后,不会再提示警告

[hadoop@localhost hadoop-2.5.]$ ./sbin/start-dfs.sh
Starting namenodes on [localhost]
localhost: starting namenode, logging to /opt/modules/hadoop-2.5./logs/hadoop-hadoop-namenode-localhost.localdomain.out
localhost: starting datanode, logging to /opt/modules/hadoop-2.5./logs/hadoop-hadoop-datanode-localhost.localdomain.out
Starting secondary namenodes [0.0.0.0]
0.0.0.0: starting secondarynamenode, logging to /opt/modules/hadoop-2.5./logs/hadoop-hadoop-secondarynamenode-localhost.localdomain.out

二. 导入源码到eclipse

  1. 安装hadoop-maven-plugins

进入源码下hadoop-maven-plugins目录,执行命令:

$ mvn install

  2. 生成eclipse项目文件

返回源码根目录,执行:

$ mvn eclipse:eclipse -DskipTests

3. 导入eclipse

[File] > [Import] > [Existing Projects into Workspace]

  4. 导入后错误解决

  >hadoop-streaming中build path错误:

  Java Build Path->Source:删除 hadoop-yarn-server-resourcemanager/conf

  

  >AvroRecord相关错误

  a. 下载avro-tools-1.7.4.jar

  b. 执行命令

$ cd hadoop-2.5.-src/hadoop-common-project/hadoop-common/src/test/avro
$ java -jar avro-tools所在目录/avro-tools-1.7..jar compile schema avroRecord.avsc ../java

  c. eclipse刷新项目

  

  >protobuf相关错误

  a. 执行命令

$ cd hadoop-2.5.-src/hadoop-common-project/hadoop-common/src/test/proto
$ protoc --java_out=../java *.proto

  b. eclipse刷新项目

  附:BUILDING.txt中原文

  Importing projects to eclipse

  When you import the project to eclipse, install hadoop-maven-plugins at first.

  $ cd hadoop-maven-plugins

  $ mvn install 

  Then, generate eclipse project files.

  $ mvn eclipse:eclipse -DskipTests

  At last, import to eclipse by specifying the root directory of the project via

  [File] > [Import] > [Existing Projects into Workspace].

hadoop2.5.2学习及实践笔记(二)—— 编译源代码及导入源码至eclipse的更多相关文章

  1. hadoop2.5.2学习及实践笔记(四)—— namenode启动过程源码概览

    对namenode启动时的相关操作及相关类有一个大体了解,后续深入研究时,再对本文进行补充 >实现类 HDFS启动脚本为$HADOOP_HOME/sbin/start-dfs.sh,查看star ...

  2. hadoop2.5.2学习及实践笔记(六)—— Hadoop文件系统及其java接口

    文件系统概述 org.apache.hadoop.fs.FileSystem是hadoop的抽象文件系统,为不同的数据访问提供了统一的接口,并提供了大量具体文件系统的实现,满足hadoop上各种数据访 ...

  3. hadoop2.5.2学习及实践笔记(五)—— HDFS shell命令行常见操作

    附:HDFS shell guide文档地址 http://hadoop.apache.org/docs/r2.5.2/hadoop-project-dist/hadoop-common/FileSy ...

  4. hadoop2.5.2学习及实践笔记(三)—— HDFS概念及体系结构

    注:文中涉及的文件路径或配置文件中属性名称是针对hadoop2.X系列,相对于之前版本,可能有改动. 附: HDFS用户指南官方介绍: http://hadoop.apache.org/docs/r2 ...

  5. hadoop2.5.2学习及实践笔记(一)—— 伪分布式学习环境搭建

    软件 工具:vmware 10 系统:centOS 6.5  64位 Apache Hadoop: 2.5.2  64位 Jdk:  1.7.0_75  64位 安装规划 /opt/softwares ...

  6. 【流媒体开发】VLC Media Player - Android 平台源码编译 与 二次开发详解 (提供详细800M下载好的编译源码及eclipse可调试播放器源码下载)

    作者 : 韩曙亮  博客地址 : http://blog.csdn.net/shulianghan/article/details/42707293 转载请注明出处 : http://blog.csd ...

  7. 并发编程学习笔记(9)----AQS的共享模式源码分析及CountDownLatch使用及原理

    1. AQS共享模式 前面已经说过了AQS的原理及独享模式的源码分析,今天就来学习共享模式下的AQS的几个接口的源码. 首先还是从顶级接口acquireShared()方法入手: public fin ...

  8. 并发编程学习笔记(8)----ThreadLocal的使用及源码分析

    1. ThreadLocal的理解 ThreadLocal,顾名思义,就是线程的本地变量,ThreadLocal会为每个线程创建一个本地变量副本,使得使用ThreadLocal管理的变量在多线程的环境 ...

  9. Spring源码学习01:IntelliJ IDEA2019.3编译Spring5.3.x源码

    目录 Spring源码学习01:IntelliJ IDEA2019.3编译Spring5.3.x源码 前言 工欲善其事必先利其器.学习和深读Spring源码一个重要的前提:编译源码到我们的本地环境.这 ...

随机推荐

  1. Tomcat配置https及访问http自动跳转至https

    https介绍:   HTTPS(全称:Hypertext Transfer Protocol over Secure Socket Layer),是以安全为目标的HTTP通道,简单讲是HTTP的安全 ...

  2. CF 314C Sereja and Subsequences(树状数组)

    题目链接:http://codeforces.com/problemset/problem/314/C 题意:给定一个数列a.(1)写出a的不同的所有非下降子列:(2)定义某个子列的f值为数列中各个数 ...

  3. Hosting Your Own NuGet Feeds

    Hosting Your Own NuGet Feeds Hosting the NuGet Gallery Locally in IIS https://github.com/NuGet/NuGet ...

  4. poj3683 Priest John's Busiest Day

    2-SAT 输出可行解 找可行解的方案就是: 根据第一次建的图建一个反图..然后求逆拓扑排序,建反图的原因是保持冲突的两个事件肯定会被染成不同的颜色 求逆拓扑排序的原因也是为了对图染的色不会发生冲突, ...

  5. C#克隆实例详解

    public AtmDataBase DeepClone() { MemoryStream ms = new MemoryStream(); BinaryFormatter bf = new Bina ...

  6. laravel下的团队开发

    当你的团队在开发一个大型应用时,该应用的不同部分可能以不同的速度前进.比如,设想下面的场景:一个开发热源被分配 数据层 的backend工作,而另外一个开发人员做front-end和web/contr ...

  7. HDU 1574 RP问题

    如果说难的话,难就难在对阶段的划分. 这又是一道对值域空间进行分段的题目. 因为rp有正有负,所以将整个数组向右平移10000个单位长度 l和r分别是rp可能的最小值 因为b是“门槛”,所以如果 发生 ...

  8. Warning: Using innodb_additional_mem_pool_size is DEPRECATED

    Warning: Using innodb_additional_mem_pool_size is DEPRECATED. This option may be removed in future r ...

  9. BZOJ 1415 聪聪和可可

    f[i][j]表示i点追j点的期望步数... 这题必须spfa不能bfs. 且复杂度不会炸(仅1000条边) #include<iostream> #include<cstdio&g ...

  10. Ref相关的名词解释

    NV (NOT-VOLATILE),即非易失性,断电不会丢失的存储信息,包括生产信息.客户信息.产品信息等等. 它们都保存在不同(FLASH)分区,并根据不同的分区提供不同的接口.数据结构和管理机制. ...