Apache hadoop安装配置
1.网络中继更改问题
命令: vi /etc/sysconfig/network-scripts/ifcfg-eth0
需要修改的代码
DEVICE=eth0
HWADDR=00:0C:29:11:02:E8
TYPE=Ethernet
UUID=c1038317-21f4-4251-a68f-0962fd644cab
NBOOT=yes
NM_CONTROLLED=yes
BOOTPROTO=static
IPADDR=192.168.17.238
GATEWAY=192.168.17.1
NDS1=114.114.114.114
IPV6INIT=NO
2.hadoop 环境配置问题
1.修改主机名称
命令:vi /etc/hosts
2.配置java ,hadoop环境变量
命令:vi/etc/prifile
#java
JAVA_HOME=/jdk1.7.0_79
JAVA_BIN=/jdk1.7.0_79/bin
PATH=$JAVA_HOME/bin:$PATH
CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar
export JAVA_HOME JAVA_BIN PATH CLASSPATH
#hadoop
export HADOOP_HOME=/home/hadoop-2.5.2
export PATH=$HADOOP_HOME/bin:$PATH
export HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_HOME/lib/native
export HADOOP_OPTS="-Djava.library.path=$HADOOP_HOME/lib"
export JAVA_LIBRARY_PATH=/home/hadoop-2.5.2/lib/native/
3关闭防火墙
service iptables stop
chkconfig iptables off
3.1修改配置文件
vi /etc/selinux/config
修改为:
SELINUX=disabled
4.ssh免密设置
下载 ssh服务
命令:yum -y install openssh-clients
生成ssh密匙:
ssh-keygen -t rsa
进入根目录:命令: cd~;
cd .ssh
ls 查看文件
将文件 id_rsa.hub 考入: 命令:cat id_rsa.pub >>authorized_keys
将 datanode节点上的 id_rsa.hub 考入 命令
ssh datanode1 cat .ssh/id_rsa.pub >>authorized_keys
将文件发送到datanode节点:
[root@namenode ~]# scp authorized_keys datanode1:~/.ssh
测试 ssh datanode1 免密登陆到datanode1主机
至此 前期配置完成
5 新建组和用户
groupadd hadoop
useradd -g hadoop hadoop
Passwd hadoop
6解压hadoop2-2-*到home/hadoop下
tar -xzvf hadoop * /home/hadoop
配置五个文件
Cd /home/hodoop/hadoop2-***/etc/hadoop/
Ll 列举文件下内容
nameNode、dataNodes都需要配置
cd hadoop-2.5.2/etc/hadoop
6.1 vi core-site.xml
<configuration>
<property>
<name>hadoop.tmp.dir</name>
<value>/home/hadoop/tmp</value> //这里写入的文件夹要手动创建
<description>Abase for other temporary directories.</description>
</property>
<property>
<name>fs.defaultFS</name>
<value>hdfs://192.168.131.7:9000</value> //这里的ip地址写入的是master的ip地址
</property>
<property>
<name>io.file.buffer.size</name>
<value>4096</value>
</property>
</configuration>
mkdir -p $HOME/dfs/name
mkdir -p $HOME/dfs/data
6.2 vi hdfs-site.xml
<configuration>
<property>
<name>dfs.nameservices</name>
<value>hadoop-cluster1</value>
</property>
<property>
<name>dfs.namenode.secondary.http-address</name>
<value>192.168.131.7:50090</value> //这里的ip地址写入的是master的ip地址
</property>
<property>
<name>dfs.namenode.name.dir</name>
<value>file:///home/hadoop/dfs/name</value> //这里写入的文件夹要手动创建
</property>
<property>
<name>dfs.datanode.data.dir</name>
<value>file:///home/hadoop/dfs/data</value> //这里写入的文件夹要手动创建
</property>
<property>
<name>dfs.replication</name>
<value>2</value> //有多少台节点就写多少
</property>
<property>
<name>dfs.webhdfs.enabled</name>
<value>true</value>
</property>
</configuration>
6.3 vi mapred-site.xml
<configuration>
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value> //这是hadoop对原有第一代M/R计算模型的改进版框架yarn
</property>
<property>
<name>mapreduce.jobtracker.http.address</name>
<value>192.168.131.7:50030</value> //这里的ip地址写入的是master的ip地址
</property>
<property>
<name>mapreduce.jobhistory.address</name>
<value>192.168.131.7:10020</value> //这里的ip地址写入的是master的ip地址
</property>
<property>
<name>mapreduce.jobhistory.webapp.address</name>
<value>192.168.131.7:19888</value> //这里的ip地址写入的是master的ip地址
</property>
</configuration>
6.4 vi yarn-site.xml
<configuration>
<!-- Site specific YARN configuration properties -->
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
<property>
<name>yarn.resourcemanager.address</name>
<value>192.168.131.7:8032</value> //这里的ip地址写入的是master的ip地址
</property>
<property>
<name>yarn.resourcemanager.scheduler.address</name>
<value>192.168.131.7:8030</value> //这里的ip地址写入的是master的ip地址
</property>
<property>
<name>yarn.resourcemanager.resource-tracker.address</name>
<value>192.168.131.7:8031</value> //这里的ip地址写入的是master的ip地址
</property>
<property>
<name>yarn.resourcemanager.admin.address</name>
<value>192.168.131.7:8033</value> //这里的ip地址写入的是master的ip地址
</property>
<property>
<name>yarn.resourcemanager.webapp.address</name>
<value>192.168.131.7:8088</value> //这里的ip地址写入的是master的ip地址
</property>
</configuration>
vi slaves
192.168.79.101
192.168.79.102
vi hadoop-env.sh
export JAVA_HOME=/opt/jdk1.7.0_06
vi yarn-env.sh
export JAVA_HOME=/opt/jdk1.7.0_06
在一台机器上配置完后,可批量复制至另外的机器
scp yarn-site.xml mapred-site.xml slaves hdfs-site.xml yarn-env.sh hadoop-env.sh dataNode1:/home/hadoop/hadoop-2.5.2/etc/hadoop
scp yarn-site.xml mapred-site.xml slaves hdfs-site.xml yarn-env.sh hadoop-env.sh dataNode2:/home/hadoop/hadoop-2.5.2/etc/hadoop
7 格式化文件系统
hdfs namenode –format
8 启动和关闭
在master机器的hadoop目录下执行:
sbin/start-all.sh 等同于运行start-dfs.sh和start-yarn.sh
sbin/stop-all.sh 等同于运行stop-dfs.sh和stop-yarn.sh
如果启动报错:Unable to load native-hadoop library for your platform... using builtin-java classes where applicable
Starting namenodes on [nameNode]
去这个地址下载相应版本的本地库:
http://dl.bintray.com/sequenceiq/sequenceiq-bin/
解压:tar -xvf hadoop-native-64-2.5.2.tar -C /home/hadoop/hadoop-2.5.2/lib/native/
scp * dataNode1:/home/hadoop/hadoop-2.5.2/lib/native/
scp * dataNode2:/home/hadoop/hadoop-2.5.2/lib/native/
再检查环境变量是否设置:
export JAVA_LIBRARY_PATH=/home/hadoop/hadoop-2.5.2/lib/native/
9查看启动的进程
Jps
10 测试访问
http://192.168.79.100:50070/ 查看hdfs节点信息和文件系统,10.0.1.100是master的ip地址
http:// 192.168.79.100:8088/ 查看map/reduce的job调用情况
报错处理
如果出现:put: File /user/hadoop/input/mapred-site.xml._COPYING_ could only be replicated to 0 nodes instead of minReplication (=1). There are 2 datanode(s) running and 2 node(s) are excluded in this operation.
需要关闭所有节点的防火墙。
Apache hadoop安装配置的更多相关文章
- 分布式大数据多维分析(OLAP)引擎Apache Kylin安装配置及使用示例【转】
Kylin 麒麟官网:http://kylin.apache.org/cn/download/ 关键字:olap.Kylin Apache Kylin是一个开源的分布式分析引擎,提供Hadoop之上的 ...
- hadoop安装配置——伪分布模式
1. 安装 这里以安装hadoop-0.20.2为例 先安装java,参考这个 去着下载hadoop 解压 2. 配置 修改环境变量 vim ~/.bashrc export HADOOP_HOME= ...
- 大数据专栏 - 基础1 Hadoop安装配置
Hadoop安装配置 环境 1, JDK8 --> 位置: /opt/jdk8 2, Hadoop2.10: --> 位置: /opt/bigdata/hadoop210 3, CentO ...
- Linux环境Hadoop安装配置
Linux环境Hadoop安装配置 1. 准备工作 (1)linux配置IP(NAT模式) (2)linux关闭防火墙 (3)设置主机名 (4)设置映射 (5)设置免密登录 2. 安装jdk (1)上 ...
- hadoop集群监控工具Apache Ambari安装配置教程
ambari 1.2.4 下载地址:http://www.apache.org/dist/incubator/ambari/ambari-1.2.4/ambari-1.2.4-incubating.t ...
- CentOS 7 Hadoop安装配置
前言:我使用了两台计算机进行集群的配置,如果是单机的话可能会出现部分问题.首先设置两台计算机的主机名 root 权限打开/etc/host文件 再设置hostname,root权限打开/etc/hos ...
- CentOS Hadoop安装配置详细
总体思路,准备主从服务器,配置主服务器可以无密码SSH登录从服务器,解压安装JDK,解压安装Hadoop,配置hdfs.mapreduce等主从关系. 1.环境,3台CentOS7,64位,Hadoo ...
- windows下hadoop安装配置(转载)
Windows平台安装配置Hadoop 步骤: 1. JDK安装(不会的戳这) 2. 下载hadoop2.5.2.tar.gz,或者自行去百度下载. 3. 下载hadooponwindows-mast ...
- Hadoop安装配置
1.集群部署介绍 1.1 Hadoop简介 Hadoop是Apache软件基金会旗下的一个开源分布式计算平台.以Hadoop分布式文件系统(HDFS,Hadoop Distributed Filesy ...
随机推荐
- 896. Monotonic Array单调数组
[抄题]: An array is monotonic if it is either monotone increasing or monotone decreasing. An array A i ...
- git删除提交历史
精准入口==>官方文档 Q:我们在提交代码时,把密码或者敏感信息也提交了,怎么办? A:“在本地删除密码或敏感信息后,再push到远程仓库” Q:"但这样删除后,在仓库的commit历 ...
- Ajax中什么时候用同步,什么时候用异步?
AJAX中根据async的值不同分为同步(async = false)和异步(async = true)两种执行方式:在W3C的教程中推荐使用异步执行: $.ajax({ type: "po ...
- 模块math和cmath
python使用特殊命令import导入模块,再以module.function的方式使用模块 python标准库提供了一个专门用于处理复数的模块cmath,math处理数据 模块math常用的函数有 ...
- 关于vuex状态管理模式架构
一. 什么是vuex 集中存储管理所有组件的状态 并以相应的规则保证以一种可预测的方式发生变化. 例子: 实现加减 <p>{{count}} <button @click=" ...
- ubuntu 安装Pangolin 过程
Pangolin 是一款开源的OPENGL显示库,可以用来视频显示.而且开发容易. 代码我们可以从Github 进行下载:https://github.com/zzx2GH/Pangolin.git ...
- docker-ce-17.09 容器创建,运行,进入,删除,导入/导出
docker容器是镜像运行的一个运行实例,带有额外的可写文件层. 一.创建容器 > docker create -it centos:latest create命令新建的容器处于停止状态,可以使 ...
- 遇到返回键会退到页面的问题(window.location)
我的需求是a全局列表页->b展示列表页->c新增页(编辑页)我从b展示列表页,通过编辑进入c编辑页,保存回到b展示列表页. 重,我的b展示列表页,返回要返回的其实是a全局列表页*使用rep ...
- json等序列化模块 异常处理
今日学习内容如下: 1.序列化模块 什么叫序列化——将原本的字典.列表等内容转换成一个字符串的过程就叫做序列化. 比如,我们在python代码中计算的一个数据需要给另外一段程序使用,那我们怎么给? 现 ...
- JVM 运行时数据区 (三)
JVM运行时数据区 运行时数据区由 程序计数器.java虚拟机栈.本地方法栈.堆.方法区 组成: 1.程序计数器 每一个Java线程都有一个程序计数器,用于保存程序执行到当前方法的哪一个指令,它是线程 ...