Hadoop安装及配置
一、系统及软件环境
1、操作系统
CentOS release 6.5 (Final)
内核版本:2.6.32-431.el6.x86_64
master.fansik.com:192.168.83.118
node1.fansik.com:192.168.83.119
node2.fansik.com:192.168.83.120
2、jdk版本:1.7.0_75
3、Hadoop版本:2.7.2
二、安装前准备
1、关闭防火墙和selinux
# setenforce 0
# service iptables stop
2、配置host文件
192.168.83.118 master.fansik.com
192.168.83.119 node1.fansik.com
192.168.83.120 node2.fansik.com
3、生成秘钥
master.fansik.com上执行# ssh-keygen一直回车
# scp ~/.ssh/id_rsa.pub node1.fansik.com:/root/.ssh/authorized_keys
# scp ~/.ssh/id_rsa.pub node2.fansik.com:/root/.ssh/authorized_keys
# chmod 600 /root/.ssh/authorized_keys
4、安装jdk
# tar xf jdk-7u75-linux-x64.tar.gz
# mv jdk1.7.0_75 /usr/local/jdk1.7
# vim /etc/profile.d/java.sh加入如下内容:
export JAVA_HOME=/usr/local/jdk1.7
export JRE_HOME=/usr/local/jdk1.7/jre
export CLASSPATH=.:$JAVA_HOME/lib:/dt.jar:$JAVA_HOME/lib/tools.jar
export PATH=$PATH:$JAVA_HOME/bin
# source /etc/profile
5、同步时间(否则后边分析文件的时候可能会有问题)
# ntpdate 202.120.2.101(上海交通大学的服务器)
三、安装Hadoop
Hadoop的官方下载站点,可以选择相应的版本下载:http://hadoop.apache.org/releases.html
分别在三台机器上执行下面的操作:
# tar xf hadoop-2.7.2.tar.gz
# mv hadoop-2.7.2 /usr/local/hadoop
# cd /usr/local/hadoop/
# mkdir tmp dfs dfs/data dfs/name
四、配置Hadoop
master.fansik.com上的配置
# vim /usr/local/hadoop/etc/hadoop/core-site.xml
<configuration>
<property>
<name>fs.defaultFS</name>
<value>hdfs://192.168.83.118:9000</value>
</property>
<property>
<name>hadoop.tmp.dir</name>
<value>file:/usr/local/hadoop/tmp</value>
</property>
<property>
<name>io.file.buffer.size</name>
<value>121702</value>
</property>
</configuration>
# vim /usr/local/hadoop/etc/hadoop/hdfs-site.xml
<configuration>
<property>
<name>dfs.namenode.name.dir</name>
<value>file:/usr/local/hadoop/dfs/name</value>
</property>
<property>
<name>dfs.datanode.data.dir</name>
<value>file:/usr/local/hadoop/dfs/data</value>
</property>
<property>
<name>dfs.replication</name>
<value>2</value>
</property>
<property>
<name>dfs.namenode.secondary.http-address</name>
<value>192.168.83.118.9001</value>
</property>
<property>
<name>dfs.webhdfs.enabled</name>
<value>true</value>
</property>
</configuration>
# cp /usr/local/hadoop/etc/hadoop/mapred-site.xml.template /usr/local/hadoop/etc/hadoop/mapred-site.xml
# vim (!$|/usr/local/hadoop/etc/hadoop/mapred-site.xml)
<configuration>
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>
<property>
<name>mapreduce.jobhistory.address</name>
<value>192.168.83.118:10020</value>
</property>
<property>
<name>mapreduce.jobhistory.webapp.address</name>
<value>192.168.83.118:19888</value>
</property>
</configuration>
# vim /usr/local/hadoop/etc/hadoop/yarn-site.xml
<configuration>
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
<property>
<name>yarn.nodemanager.auxservices.mapreduce.shuffle.class</name>
<value>org.apache.hadoop.mapred.ShuffleHandler</value>
</property>
<property>
<name>yarn.resourcemanager.address</name>
<value>192.168.83.118:8032</value>
</property>
<property>
<name>yarn.resourcemanager.scheduler.address</name>
<value>192.168.83.118:8030</value>
</property>
<property>
<name>yarn.resourcemanager.resource-tracker.address</name>
<value>192.168.83.118:8031</value>
</property>
<property>
<name>yarn.resourcemanager.admin.address</name>
<value>192.168.83.118:8033</value>
</property>
<property>
<name>yarn.resourcemanager.webapp.address</name>
<value>192.168.83.118:8088</value>
</property>
<property>
<name>yarn.resourcemanager.resource.memory.mb</name>
<value>2048</value>
</property>
</configuration>
# vim /usr/local/hadoop/etc/hadoop/slaves
192.168.83.119
192.168.83.120
将master上的etc目录同步至node1和node2
# rsync -av /usr/local/hadoop/etc/ node1.fansik.com:/usr/local/hadoop/etc/
# rsync -av /usr/local/hadoop/etc/ node2.fansik.com:/usr/local/hadoop/etc/
在master.fansik.com上操作即可,两个node会自动启动
配置Hadoop的环境变量
# vim /etc/profile.d/hadoop.sh
export PATH=/usr/local/hadoop/bin:/usr/local/hadoop/bin:$PATH
# source /etc/profile
初始化
# hdfs namenode -format
查看是否报错
# echo $?
启动服务
# start-all.sh
停止服务
# stop-all.sh
启动服务后即可通过下列地址访问:
http://192.168.83.118:8088
http://192.168.83.118:50070
五、测试Hadoop
在master.fansik.com上操作
# hdfs dfs -mkdir /fansik
如果在创建目录的时候提示下列的警告可以忽略
16/07/29 17:38:27 WARN util.NativeCodeLoader: Unable to load native-hadoop library for your pform... using builtin-java classes where applicable
解决办法:
到下列站点去下载相应的版本即可:
http://dl.bintray.com/sequenceiq/sequenceiq-bin/
# tar -xvf hadoop-native-64-2.7.0.tar -C /usr/local/hadoop/lib/native/
如果提示:copyFromLocal:Cannot create directory /123/. Name node is in safe mode
说明Hadoop开启了安全模式,解决办法
hdfs dfsadmin -safemode leave
将myservicce.sh复制到fansik目录下
# hdfs dfs -copyFromLocal ./myservicce.sh /fansik
查看/fansik目录下是否有了myservicce.sh文件
# hdfs dfs -ls /fansik
使用workcount分析文件
# hadoop jar /usr/local/hadoop/share/hadoop/mapreduce/hadoop-mapreduce-examples-2.7.2.jar wordcount /fansik/myservicce.sh /zhangshan/
查看分析后的文件:
# hdfs dfs -ls /zhangshan/
Found 2 items
-rw-r--r-- 2 root supergroup 0 2016-08-02 15:19 /zhangshan/_SUCCESS
-rw-r--r-- 2 root supergroup 415 2016-08-02 15:19 /zhangshan/part-r-00000
查看分析结果:
# hdfs dfs -cat /zhangshan/part-r-00000
Hadoop安装及配置的更多相关文章
- [Hadoop入门] - 2 ubuntu安装与配置 hadoop安装与配置
ubuntu安装(这里我就不一一捉图了,只引用一个网址, 相信大家能力) ubuntu安装参考教程: http://jingyan.baidu.com/article/14bd256e0ca52eb ...
- Hadoop集群--linux虚拟机Hadoop安装与配置、克隆虚拟机
Hadoop集群 第四章 Hadoop安装与配置.克隆虚拟机 一.Hadoop安装与配置 1.将hadoop安装包通过Xftp传输到虚拟机的/software目录下 2.进入/software目录下, ...
- 一、hadoop安装与配置
准备环境: 系统:centos6.5 64位 192.168.211.129 master 192.168.211.131 slave1 在两台服务器上都要配置ssh免密码登录 在192. ...
- spark学习(2)--hadoop安装、配置
环境: 三台机器 ubuntu14.04 hadoop2.7.5 jdk-8u161-linux-x64.tar.gz (jdk1.8) 架构: machine101 :名称节点.数据节点.Secon ...
- Hadoop安装与配置
Hadoop介绍 上面是官方介绍,翻一下来总结一句话就是:Hadoop是一个高可用,用于分布式处理大规模计算的工具. Hadoop1.2 下载 . Hadoop1.2 安装 1. 安装jDK 2. 配 ...
- 五十九.大数据、Hadoop 、 Hadoop安装与配置 、 HDFS
1.安装Hadoop 单机模式安装Hadoop 安装JAVA环境 设置环境变量,启动运行 1.1 环境准备 1)配置主机名为nn01,ip为192.168.1.21,配置yum源(系统源) 备 ...
- hadoop安装及配置入门篇
声明: author: 龚细军 时间: -- 类型: 笔记 转载时请注明出处及相应链接. 链接地址: http://www.cnblogs.com/gongxijun/p/5726024.html 本 ...
- hadoop安装和配置
这里只是涉及了hadoop的一些思路,所以完全分布式配置文件并没有哦!以后会把详细的配置过程和使用环境补充在另外一篇博客中 hadoop的安装: --------------------------- ...
- cdh版本的hadoop安装及配置(伪分布式模式) MapReduce配置 yarn配置
安装hadoop需要jdk依赖,我这里是用jdk8 jdk版本:jdk1.8.0_151 hadoop版本:hadoop-2.5.0-cdh5.3.6 hadoop下载地址:链接:https://pa ...
随机推荐
- PO VO DAO DTO BO TO概念与区别(转)
O/R Mapping 是 Object Relational Mapping(对象关系映射)的缩写.通俗点讲,就是将对象与关系数据库绑定,用对象来表示关系数据.在O/R Mapping的世界里,有两 ...
- linux中的内存申请函数的区别 kmalloc, vmalloc
kmalloc是返回连续内存的内存分配函数 vmalloc是返回较大内存空间的,不需要连续的内存分配函数.其速度较慢,并且不能在中断上下文调用.
- CSS布局学习笔记之position
CSS知识点 之 position布局 前段时间被同学怂恿,参加了百度前端技术学院的一个小培训,第一个阶段下来学到不少东西.课程的第一个阶段主要是HTML5 和 CSS 基础知识的一个小培训,给出的一 ...
- Alignment trap 解决方法 【转 结合上一篇
前几天交叉编译crtmpserver到arm9下.编译通过,但是运行的时候,总是提示Alignment trap,但是并不影响程序的运行.这依然很令人不爽,因为不知道是什么原因引起的,这就像一颗定时炸 ...
- hard
硬盘电路板将信号转化为电压高低,电压控制电脉冲被送到磁头,产生一个电磁.磁盘和磁头很紧密.读写都是不断扫描磁盘的过程.有操作系统负责控制文件的组织,可能在不同的块中.
- python入门笔记
创建变量 python的变量不需要声明数据类型. >>> fred=100 >>> print (fred) 100 >>> fred 100 创 ...
- android activity改变另一个activity ui
android开发之在activity中控制另一个activity的UI更新 转自:http://www.cnblogs.com/ycxyyzw/p/3875544.html 第一种方法: 遇到一 ...
- Json 讲解
JSON详解 阅读目录 JSON的两种结构 认识JSON字符串 在JS中如何使用JSON 在.NET中如何使用JSON 总结 JSON的全称是”JavaScript Object Notation”, ...
- AXUre
[ Javascript ] 一.javascript能用来干什么? 1.数据的验证. 2.对动态这本写到网页当中. 3.可以对事件做出响应. 4.可以读写html 中的内室. 5.可以检测浏览器 6 ...
- Reverse-Daily(3)-DotNetCrackMe1
链接:http://pan.baidu.com/s/1cuYQhK 密码:zjx6 这是一个用c#编写的程序 用dotpeek或者ILSPY反编译可以看到程序结构,主体比较简单,是一个des加密 ...