hadoop 伪分布配置
配置 Hadoop 伪分布式
任务配置说明:
VMware 15
Centos 6.5
java -jdk 1.8
hadoop-2.6.0-cdh5.14.0.tar.gz
第一步
自行安装虚拟机
第二步 开始大配置
修改主机名和用户名
vim /etc/sysconfig/network --(将HOSTNAME=) 改为master(主机的意思)
vim /etc/hosts --(增加一行内容 ip master)
配置静态ip
vim /etc/sysconfig/network-scripts/ifcfg-eth0
修改内容如下:
DEVICE=eth0 (网卡名称)
HWADDR=00:0C:29:63:C3:47
TYPE=Ethernet
UUID=7cce5090-6637-40fc-a47e-9f5e2d561b46
ONBOOT=yes (必须设置 设置启动)
NM_CONTROLLED=yes
BOOTPROTO=static (静态)
IPADDR=192.168.65.21 --(你的ip)
NETMASK=255.255.255.0 --(子网掩码)
GATEWAY=192.168.65.1 --(网关)
DNS1=114.114.114.114 --(DNS)
配置SSH无密码连接
关闭防火墙
service iptables stop --(仅一次性关闭防火墙 再次开机防火墙就重新开启了)
chkconfig iptables off --(永久关闭防火墙 防止重启防火墙自启动)
配置 SSH
安装 ssh
yum install ssh
安装 rsync
yum install rsync
启动 SSH 服务命令
service sshd restart
检查 ssh 是否已经安装成功 可以执行 rpm -qa | grep openssh
出现
[hadoop@master ~]$ rpm -qa | grep openssh
openssh-server-5.3p1-94.el6.x86_64
openssh-clients-5.3p1-94.el6.x86_64
openssh-5.3p1-94.el6.x86_64
openssh-askpass-5.3p1-94.el6.x86_64代表成功
检查 rsync 是否安装成功 可执行 rpm -qa | grep rsync
出现
[hadoop@master ~]$ rpm -qa | grep rsync
rsync-3.0.6-12.el6.x86_64代表成功
生成 SSH 公钥 (只可以生成当前执行用户的秘钥)
ssh-keygen -t rsa --(连续回车即可)
ssh-copy-id -i ~/.ssh/id_rsa.pub hadoop(用户名)@master(主机名)
验证 ssh master
4.配置 java 环境
安装 Java jdk
卸载初始系统存在的jdk
检查 是否安装了jdk
rpm -qa | grep jdk
如果出现了返回值 那么使用 yum -y remove xxx(将返回值输入即可)
安装 JDK (需要实现上传)
tar -zxvf jdk-8u221-linux-x64.tar.gz --(解压压缩包)
修改环境配置文件
vim /etc/profile
文件末尾添加
#java --(注释代表java)
export JAVA_HOME=/home/hadoop/app/jdk1.8.0_221 --(你java安装目录)
export PATH=$PATH:$JAVA_HOME/bin
让配置文件修改后生效
source /etc/profile
验证 java是否安装成功 --(输入java命令即可)
[hadoop@master jdk1.8.0_221]$ java
如若返回一大页东西则安装成功 java -version可以查看当前java版本信息
5.配置 hadoop 环境
老样子 先解压
tar -zxvf hadoop-2.6.0-cdh5.14.0.tar.gz
修改配置文件信息
进入 hadoop 配置文件目录 cd /home/hadoop/app/hadoop-2.6.0-cdh5.14.0/etc/hadoop/
修改 hadoop-env.sh 文件 末尾追加以下内容
export JAVA_HOME=/home/hadoop/app/jdk1.8.0_221
export HADOOP_HOME=/home/hadoop/app/hadoop-2.6.0-cdh5.14.0
修改 core-site.xml 文件
<configuration>
<property>
<name>fs.default.name</name>
<value>hdfs://master:9000</value>
</property>
</configuration>修改 hdfs-site.xml
<configuration>
<property>
<name>dfs.replication</name>
<value>3</value>
</property>
<property>
<name>dfs.name.dir</name>
<value>/home/hadoop/app/hadoop-2.6.0-cdh5.14.0/hdfs/name</value>
</property>
<property>
<name>dfs.data.dir</name>
<value>/home/hadoop/app/hadoop-2.6.0-cdh5.14.0/hdfs/data</value>
</property>
</configuration>修改 mapred-site.xml
可以看到我们目录中没有mapred-site.xml 我们可以通过模板拷贝出来一个
cp mapred-site.xml.template mapred-site.xml
vim mapred-site.xml
添加如下内容
<configuration>
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>
</configuration>
修改 yarn-site.xml
<configuration>
<!-- Site specific YARN configuration properties -->
<property>
<name>yarn.resourcemanager.address</name>
<value>master:8080</value>
</property>
<property>
<name>yarn.resourcemanager.resource-tracker.address</name>
<value>master:8082</value>
</property>
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
<property>
<name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name>
<value>org.apache.hadoop.mapred.ShuffleHandler</value>
</property>
</configuration>修改 slaves
master
至此,Hadoop 安装配置工作全部完成,为了能在任何路径下使用 Hadoop 命令,还需要配置环境变量
对 /etc/profile 追加如下信息
export HADOOP_HOME=/home/hadoop/app/hadoop-2.6.0-cdh5.14.0
export PATH=$PATH:$HADOOP_HOME/bin对 环境配置文件生效
[hadoop@master hadoop]$ source /etc/profile
在第一次启动 Hadoop 之前,必须对 HDFS 格式化,执行命令
[hadoop@master hadoop]$ hadoop namenode -format
第三步
启动 Hadoop
格式化 Hadoop 完成后,便可以启动 hadoop ,不过首先我们赋予脚本可执行权限
[hadoop@master hadoop]$ chmod +x -R /home/hadoop/app/hadoop-2.6.0-cdh5.14.0/sbin
然后就可以启动集群了 执行启动脚本 --(进入hadoop的sbin脚本目录)
[hadoop@master sbin]$ cd /home/hadoop/app/hadoop-2.6.0-cdh5.14.0/sbin
执行脚本
[hadoop@master sbin]$ bash start-all.sh
最后检查要启动的节点是否正常启动
[hadoop@master sbin]$ jps
9025 DataNode
9185 SecondaryNameNode
8899 NameNode
9335 ResourceManager
9432 NodeManager
9644 Jps至此 一切完成
第四步
我们可以打开浏览器查看我们的HDFS
如果 linux 有浏览器可以通过浏览器地址输入
master:50070 --(即可访问)
如果 想在windows访问 打开浏览器
linuxip:50070
例如我的:192.168.65.21:50070
大功告成了
hadoop 伪分布配置的更多相关文章
- Hadoop伪分布配置与基于Eclipse开发环境搭建
国内私募机构九鼎控股打造APP,来就送 20元现金领取地址:http://jdb.jiudingcapital.com/phone.html内部邀请码:C8E245J (不写邀请码,没有现金送)国内私 ...
- centos 6.4-linux环境配置,安装hadoop-1.1.2(hadoop伪分布环境配置)
1 Hadoop环境搭建 hadoop 的6个核心配置文件的作用: core-site.xml:核心配置文件,主要定义了我们文件访问的格式hdfs://. hadoop-env.sh:主要配置我们的j ...
- hadoop2.6.0 + hbase-1.0.0 伪分布配置
1 基本配置 主机名: 192.168.145.154 hadoop2 ======= 2 etc/hadoop下文件配置 1)core-site.xml <configuration> ...
- Data - Hadoop伪分布式配置 - 使用Hadoop2.8.0和Ubuntu16.04
系统版本 anliven@Ubuntu1604:~$ uname -a Linux Ubuntu1604 4.8.0-36-generic #36~16.04.1-Ubuntu SMP Sun Feb ...
- Hadoop伪分布安装配置
安装环境: 系统:Ubuntu 14.10 64bit hadoop:2.5.1 jdk:1.8.0_11 安装步骤: 一.安装JDK 安装 jdk,并且配置环境以及设置成默认 sudo gedi ...
- hadoop伪分布安装
解压 将安装包hadoop-2.2.0.tar.gz存放到/home/haozhulin/install/目录下,并解压 #将hadoop解压到/home/haozhulin/install路径下,定 ...
- Hadoop伪分布安装详解(五)
目录: 1.修改主机名和用户名 2.配置静态IP地址 3.配置SSH无密码连接 4.安装JDK1.7 5.配置Hadoop 6.安装Mysql 7.安装Hive 8.安装Hbase 9.安装Sqoop ...
- hadoop 伪分布启动-fs格式化
1.独立模式(standalone|local) nothing! 本地文件系统. 不需要启用单独进程. 2.pesudo(伪分布模式) 等同于完全分布式,只有一个节点. SSH: //(Socket ...
- Hadoop伪分布搭建
一.伪分布式的搭建 1.准备Linux环境 1.0点击VMware快捷方式,右键打开文件所在位置 -> 双击vmnetcfg.exe -> VMnet1 host-only ->修改 ...
随机推荐
- 为什么我的PayPal 买家账号往商家账号付款,反而从商家账号里面扣款?
如果读者踩了跟我一样坑的话,建议赶紧去检查一下 application.properties 配置文件!!! 解决方法: 不妨试试将上面的 clientId和clientSecret 切换为你的商 ...
- Python python对象 enumerate
""" enumerate(iterable[, start]) -> iterator for index, value of iterable Return a ...
- Visio2013 专业版激活码和激活工具 亲测有效
Visio2013密钥 专业版:Visio Professional 2013 KEY C2FG9-N6J68-H8BTJ-BW3QX-RM3B3 2NYF6-QG2CY-9F8XC-GWMBW-29 ...
- Vertica的这些事(四)——-vertica加密数据
通过创建 Secure Access Policies可以对vertica中的某一列数据进行加密: CREATE ACCESS POLICY ON [schema][tablename] FOR CO ...
- [ddt01篇]十年测试老鸟帮您解析:ddt数据驱动实现自动化测试入门基础应用
一.什么是DDT数据驱动框架 全称:data driver test数据驱动测试框架,可以完美的应用于unittest框架实现数据驱动.ddt使用简介: 1.测试数据为多个字典的list类型 2. ...
- java中封装,继承,多态,接口学习总结
### 一:封装java中封装是指一种将抽象性函式接口的实现细节部分包装.隐藏起来的方法. 封装可以被认为是一个保护屏障,防止该类的代码和数据被外部类定义的代码随机访问.要访问该类的代码和数据,必须通 ...
- [SCF+wetest+jmeter]简单云性能压测工具使用方案
前言 压测太难?局域网压力无法判断服务器网络指标?无法产生非常大的并发量?云性能太贵? 也许我们可以把各种简单的工具拼起来进行压力测试! 准备 https://cloud.tencent.com/pr ...
- 第一天总结(while计数器+成绩大小+获取时间+猜拳大小)
#*_* coding:utf-8 *_*# while 先有一个计数器 input = 0# input = input('输入数字')while input < 5: input= inpu ...
- 29.2 Iterator 迭代器
/* * 集合的遍历方式: * 1.toArray(),可以把集合转换成数组,然后遍历数组即可 * 2.iterator(),可以返回一个迭代器对象,我们可以通过迭代器对象来迭代集合 * * Iter ...
- python3(二十三)classInstance
""" 类和实例和访问权限 """ __author__ = 'shaozhiqi' # class后面紧接着是类名,即Student,类名 ...