安装hadoop
生成yum源
cd /var/ftp/pub/cdh/5
createrepo --update .
从节点
yum clean all
配置yum库
/etc/yum.repos.d
# cat /etc/yum.repos.d/cloudera-cdh.repo 
[hadoop]
name=hadoop
baseurl=ftp://192.168.34.135/pub/cdh/5/
enabled=1
gpgcheck=0
安装JDK
yum install jdk
echo "export JAVA_HOME=/usr/java/latest" >> /root/.bash_profile
echo "export PATH=\$JAVA_HOME/bin:\$PATH" >> /root/.bash_profile
安装namenode
yum install hadoop hadoop-hdfs hadoop-client hadoop-doc hadoop-debuginfo hadoop-hdfs-namenode
安装webhdfs
yum install hadoop-httpfs
安装secondary namenode
yum install hadoop-hdfs-secondarynamenode
安装datanode
yum install hadoop hadoop-hdfs hadoop-client hadoop-doc hadoop-debuginfo hadoop-hdfs-datanode
配置HDFS
配置文件路径
/etc/hadoop/conf
core-site.xml
<property>
        <name>hadoop.tmp.dir</name>
        <value>/home/yimr/var/filesystem</value>
    </property>
<property>
    <name>fs.default.name</name>
    <value>hdfs://yi01:9000</value>
    </property>
hdfs-site.xml
<property>
        <name>dfs.replication</name>
        <value>2</value>
    </property>
<property>
        <name>dfs.permissions.superusergroup</name>
        <value>yimr</value>
    </property>
配置Secondary Namenode
hdfs-site.xml
<property>
        <name>dfs.secondary.http.address</name>
        <value>yi01:50090</value>
    </property>
配置WebHdfs
core-site.xml
<property>
    <name>hadoop.proxyuser.httpfs.hosts</name>  
    <value>*</value>
    </property>
<property>
    <name>hadoop.proxyuser.httpfs.groups</name>
    <value>*</value>
    </property>
启动webhdfs
service hadoop-httpfs start
启动HDFS
同步配置到所有节点
rsync -av /etc/hadoop/conf/ 192.168.34.130:/etc/hadoop/conf/
格式化namenode
mkdir -p /home/yimr/var/filesystem
chown -R hdfs.hdfs /home/yimr/var/filesystem
sudo -u hdfs hadoop namenode -format
每个节点启动hdfs
for x in `ls /etc/init.d/|grep hadoop-hdfs` ; do service $x start ; done
service hadoop-hdfs-datanode start
service hadoop-hdfs-namenode start
安装Yarn
安装resource manager
yum install hadoop-yarn hadoop-yarn-resourcemanager
安装node manager
yum install hadoop-yarn hadoop-yarn-nodemanager hadoop-mapreduce
安装history server
yum install hadoop-mapreduce-historyserver hadoop-yarn-proxyserver
配置Yarn
mapred-site.xml
<property>
    <name>mapreduce.framework.name</name>
    <value>yarn</value>
    </property>
yarn-site.xml
<property>
    <description>The hostname of the RM.</description>
    <name>yarn.resourcemanager.hostname</name>
    <value>yi01</value>
    </property>
<property>
    <name>yarn.nodemanager.aux-services</name>
    <value>mapreduce_shuffle</value>
  </property>
配置history server
mapred-site.xml
<property>
    <name>yarn.app.mapreduce.am.staging-dir</name>
    <value>/user</value>
    </property>
启动服务
启动history server
sudo -u hdfs hadoop fs -mkdir -p /user
sudo -u hdfs hadoop fs -chmod 777 /user
sudo -u hdfs hadoop fs -mkdir -p /user/history
sudo -u hdfs hadoop fs -chmod -R 1777 /user/history
sudo -u hdfs hadoop fs -chown mapred:hadoop /user/history
/etc/init.d/hadoop-mapreduce-historyserver start
启动yarn
for x in `ls /etc/init.d/|grep hadoop-yarn` ; do service $x start ; done
service hadoop-yarn-nodemanager start
HDFS界面
yi00:50070
Yarn界面
yi00:8088
history界面
yi00:19888
测试
安装hadoop的更多相关文章
- CentOS下安装hadoop
		
CentOS下安装hadoop 用户配置 添加用户 adduser hadoop passwd hadoop 权限配置 chmod u+w /etc/sudoers vi /etc/sudoers 在 ...
 - Linux下安装Hadoop完全分布式(Ubuntu12.10)
		
Hadoop的安装非常简单,可以在官网上下载到最近的几个版本,最好使用稳定版.本例在3台机器集群安装.hadoop版本如下: 工具/原料 hadoop-0.20.2.tar.gz Ubuntu12.1 ...
 - Ubuntu安装Hadoop与Spark
		
更新apt 用 hadoop 用户登录后,我们先更新一下 apt,后续我们使用 apt 安装软件,如果没更新可能有一些软件安装不了.按 ctrl+alt+t 打开终端窗口,执行如下命令: sudo a ...
 - 安装hadoop+zookeeper ha
		
安装hadoop+zookeeper ha 前期工作配置好网络和主机名和关闭防火墙 chkconfig iptables off //关闭防火墙 1.安装好java并配置好相关变量 (/etc/pro ...
 - 附录A 编译安装Hadoop
		
A.1 编译Hadoop A.1.1 搭建环境 第一步安装并设置maven 1. 下载maven安装包 建议安装3.0以上版本(由于Spark2.0编译要求Maven3.3.9及以上版本),本次 ...
 - 在Ubuntu上单机安装Hadoop
		
最近大数据比较火,所以也想学习一下,所以在虚拟机安装Ubuntu Server,然后安装Hadoop. 以下是安装步骤: 1. 安装Java 如果是新机器,默认没有安装java,运行java –ver ...
 - 安装hadoop集群服务器(hadoop1.2.1)
		
摘要:hadoop,一个分布式系统基础架构,可以充分利用集群的威力进行高速运算和存储.本文主要介绍hadoop的安装与集群服务器的配置. 准备文件: ▪ VMware11.0.0 ▪ Cen ...
 - 在Ubuntu上安装Hadoop(单机模式)步骤
		
1. 安装jdk:sudo apt-get install openjdk-6-jdk 2. 配置ssh:安装ssh:apt-get install openssh-server 为运行hadoop的 ...
 - [Hadoop]如何安装Hadoop
		
Hadoop是一个分布式系统基础架构,他使得用户可以在不了解分布式底层细节的情况下,开发分布式程序. Hadoop的重要核心:HDFS和MapReduce.HDFS负责储存,MapReduce负责计算 ...
 - 面向生产环境的大集群模式安装Hadoop
		
一.实验说明 1.本实验将使用DNS而不是hosts文件解析主机名: 2.使用NFS共享密钥文件,而不是逐个手工拷贝添加密钥: 3.复制Hadoop时使用批量拷贝脚本而不是逐台复制. 测试环境: Ho ...
 
随机推荐
- Least Common Ancestors                                                    分类:            ACM TYPE             2014-10-19 11:24    84人阅读    评论(0)    收藏
			
#include <iostream> #include <cstdio> #include <cstring> #include <cmath> #i ...
 - 【bzoj1013】[JSOI2008]球形空间产生器sphere
			
1013: [JSOI2008]球形空间产生器sphere Time Limit: 1 Sec Memory Limit: 162 MBSubmit: 4530 Solved: 2364[Subm ...
 - WP手机升级WIN10被PIN码锁定
			
WP8.1手机升级WIN10后,需要输入PIN码(不知道啊),多次输入(1234,0000,8888 ...)后被锁定,无法使用手机(郁闷), 重启无数次,提示由于多次输入PIN码,手机无法使用(天啊 ...
 - [百度空间] [原]MFC杂乱笔记
			
1. 创建动态菜单 假如ID是动态分配的,那么重载virtual BOOLOnCmdMsg(UINT,int,void*,AFX_CMDHANDLERINFO*); 据MSDN不详细解释,当第二个参数 ...
 - JavaScript 文件上传类型判断
			
文件上传时用到一个功能,使用html元素的input标签实现, <input id="imageFile" name="imageFile1" accep ...
 - PE文件结构
			
PE头 typedef struct _IMAGE_NT_HEADERS { DWORD Signature; PE头标识 为固定的ascii码 PE\\ IMAGE_FILE_HEADER File ...
 - Sqli-labs less 48
			
Less-48 本关与less-46的区别在于报错注入不能使用,不进行错误回显,因此其他的方法我们依旧是可以使用的. 可以利用sort=rand(true/false)进行判断. http://127 ...
 - uva12534 Binary Matrix 2(最小费用最大流)
			
http://blog.csdn.net/qq564690377/article/details/17082055 做的时候觉得明显是费用流,但是真的不知道怎么建图,看了上面的博客会稍微清晰一点.后面 ...
 - poj 2348
			
Euclid's Game Time Limit: 1000MS Memory Limit: 65536K Total Submissions: 7418 Accepted: 3022 Des ...
 - POJ 2100
			
Graveyard Design Time Limit: 10000MS Memory Limit: 64000K Total Submissions: 4443 Accepted: 946 ...