大数据 - hadoop三台linux虚拟服务器 - 初始化部署
搭建hadoop环境
1、解压Hadoop的安装包,解压到modules文件夹中。(安装包下载地址:http://archive.apache.org/dist/hadoop/core/hadoop-2.7.2/)
$ tar -zxf /softwares/installations/hadoop-2.7.2.tar.gz -C /modules/
查看hadoop是不是64位:
在hadoop-2.7.2/lib/native 下,执行file libhadoop.so.1.0.0
2、删除/home/admin/modules/hadoop-2.7.2/etc/hadoop目录下,cmd文件
$ rm -rf *.cmd
重命名文件
$ mv mapred-site.xml.template mapred-site.xml
3、配置文件:/home/admin/modules/hadoop-2.7.2/etc/hadoop
配置结果:
Linux01 : namenode、datanode、nodeManager
Linux02 : resourceManager、datanode、nodeManager
Linux03 : datanode、nodeManager
evn文件:把JAVA_HOME 环境变量改为,实际路径
hadoop-env.sh
修改# export JAVA_HOME=$JAVA_HOME
为:export JAVA_HOME=/home/admin/modules/jdk1.8.0_191
mapred-env.sh
修改# export JAVA_HOME=/home/y/libexec/jdk1.6.0/
为:export JAVA_HOME=/home/admin/modules/jdk1.8.0_191
yarn-env.sh
修改# export JAVA_HOME=/home/y/libexec/jdk1.6.0/
为:export JAVA_HOME=/home/admin/modules/jdk1.8.0_191
site文件:(参考官网文档:https://hadoop.apache.org/docs/r2.7.2/)
core-site.xml
在https://hadoop.apache.org/docs/r2.7.2/hadoop-project-dist/hadoop-common/core-default.xml中,
fs.defaultFS 是用来配置namenode的路径的,是namenodeRPC通信地址。value:hadf://linux01:8020
RPC是跨进程通信协议
hadoop.tmp.dir是用来配置文件最终存储位置。value:haoop根目录/hoadoop-data
<configuration>
<property>
<name>fs.defaultFS</name>
<value>hdfs://linux01:8020</value>
</property>
<property>
<name>hadoop.tmp.dir</name>
<value>/home/admin/modules/hadoop-2.7.2/hadoop-data</value>
</property>
</configuration>
hdfs-site.xml
<configuration>
<!-- 指定数据冗余份数,默认3份,会占用磁盘空间 -->
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
<!-- 关闭权限检查,非hadoop用户不可以操作hadoop集群 -->
<property>
<name>dfs.permissions.enabled</name>
<value>false</value>
</property>
<!-- 配置namenode,减少namenode的压力 -->
<property>
<name>dfs.namenode.secondary.http-address</name>
<value>linux03:50090</value>
</property>
<!-- namenode网页地址 -->
<property>
<name>dfs.namenode.http-address</name>
<value>linux01:50070</value>
</property>
<!-- 浏览hdfs的方式,一种是webhdfs,一种格式https -->
<property>
<name>dfs.webhdfs.enabled</name>
<value>true</value>
</property>
</configuration>
mapred-site.xml
<configuration>
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>
<!-- 配置mapreduce的历史服务端口,产生的日志服务 -->
<property>
<name>mapreduce.jobhistory.address</name>
<value>linux01:10020</value>
</property>
<!-- 配置mapreduce的历史服务页面端口,产生的日志服务 -->
<property>
<name>mapreduce.jobhistory.webapp.address</name>
<value>linux01:19888</value>
</property>
</configuration>
yarn-site.xml
<configuration>
<!-- 是否允许调度mapreduce的shuffle过程 -->
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
<!-- 配置mapreduce到linux02 -->
<property>
<name>yarn.resourcemanager.hostname</name>
<value>linux02</value>
</property>
<!-- -->
<property>
<name>yarn.log-aggregation-enable</name>
<value>true</value>
</property>
<!-- -->
<property>
<name>yarn.log-aggregation.retain-seconds</name>
<value>86400</value>
</property>
<!-- -->
<property>
<name>yarn.log.server.url</name>
<value>http://linux01:19888/jobhistory/logs/</value>
</property>
</configuration>
slaves文件:配置三台从节点,配置三台虚拟机的名称
linux01
linux02
linux03
配置datanode和nodeManager从节点
4、分发,将hadoop安装包,分发到linux02、Linux03(在modules目录,执行)
scp -r hadoop-2.7.2/ linux02:/home/admin/modules
scp -r hadoop-2.7.2/ linux03:/home/admin/modules
说明:scp 命令是跨服务器复制文件。
5、格式化namenode (在hadoop的根目录下执行)
linux01: bin/hdfs namenode -format
6、启动服务,(在hadoop根目录执行)
HDFS:
linux01:$ sbin/start-dfs.sh
相当于:
$ sbin/hadoop-daemon.sh start namenode 开namenode的命令
$ sbin/hadoop-daemon.sh start datanode 开namenode的命令
YARN: (在resourceManager所在的机器上启动)
linux02:$ sbin/start-yarn.sh
JobHistory:
linux01:$ sbin/mr-jobhistory-daemon.sh start historyserver
如果因为断电关系,造成启动过程中,发现NameNode已启动的提示。
处理方式:删除/tmp下namenode对应的pid文件,rm -rf /tmp/hadoop-namenode.pid
7、启动检测(如果无法访问,请在windows的hosts文件中,配置虚拟机名称及对应的ip)
浏览器访问:http://linux01:50070
检查概览overview下的安全模式safemode一定要关闭,如果是打开的,说明有问题,安全模式数据只能读取,不能写入。
datenode节点有三台服务器
utilties中输入hdfs根目录/
浏览器访问:http://linux02:8088
8088是默认端口。点击左侧Notes选项,查看三台服务器的noteManager是否已经是Running状态,在判断资源是否不足。
判断集群是否开启正确,输入命令 jps
说明:jps是查看所有java进程的命令
8、测试成功后,配置工具脚本
系统变量与用户变量
使用xshell开启一个远程回话时,linux01 SSH linux02 默认加载用户变量配置文件,不会加载系统变量。
/etc/profile (系统变量)
/home/admin/.bash_profile (用户变量)
/home/admin/.bashrc (用户变量)
执行命令,配置系统变量中的环境变量到用户变量配置文件中:(三台linux都执行)
$ cat /etc/profile >> .bashrc (在/home/admin下执行,把profile中内容,追加到.bashrc)
编写shell脚本,查看三台服务器的jsp状态:
#!/bin/bash
# admin为用户名。
for i in admin@linux01 admin@linux02 admin@linux03
do
echo "=============$i================"
ssh $i 'jps'
done
编写shell脚本,在第一台及其执行脚本,启动hadoop所有节点:
#!/bin/bash
#HDFS
modules/hadoop-2.7.2/sbin/start-dfs.sh
#YARN
ssh admin@linux02 modules/hadoop-2.7.2/sbin/start-yarn.sh
#JobHistory
modules/hadoop-2.7.2/sbin//mr-jobhistory-daemon.sh start historyserver
大数据 - hadoop三台linux虚拟服务器 - 初始化部署的更多相关文章
- 12.Linux软件安装 (一步一步学习大数据系列之 Linux)
1.如何上传安装包到服务器 有三种方式: 1.1使用图形化工具,如: filezilla 如何使用FileZilla上传和下载文件 1.2使用 sftp 工具: 在 windows下使用CRT 软件 ...
- 大数据学习之Linux基础01
大数据学习之Linux基础 01:Linux简介 linux是一种自由和开放源代码的类UNIX操作系统.该操作系统的内核由林纳斯·托瓦兹 在1991年10月5日首次发布.,在加上用户空间的应用程序之后 ...
- LVS (Linux虚拟服务器)模型及算法
LVS(Linux Virtual Server)Linux虚拟服务器 LVS集群采用IP负载均衡技术和基于内容请求分发技术. 用户请求发给负载均衡调度器,由负载均衡调度器根据设定的调度算法将请求发给 ...
- 云计算分布式大数据Hadoop实战高手之路第八讲Hadoop图文训练课程:Hadoop文件系统的操作实战
本讲通过实验的方式讲解Hadoop文件系统的操作. “云计算分布式大数据Hadoop实战高手之路”之完整发布目录 云计算分布式大数据实战技术Hadoop交流群:312494188,每天都会在群中发布云 ...
- 14周事情总结-机器人-大数据hadoop
14周随着考试的进行,其他该准备的事情也在并行的处理着,考试内容这里不赘述了 首先说下,关于机器人大赛的事情,受益颇多,机器人的制作需要机械和电控两方面 昨天参与舵机的测试,遇到的问题:舵机不动 排查 ...
- 成都大数据Hadoop与Spark技术培训班
成都大数据Hadoop与Spark技术培训班 中国信息化培训中心特推出了大数据技术架构及应用实战课程培训班,通过专业的大数据Hadoop与Spark技术架构体系与业界真实案例来全面提升大数据工程师 ...
- 大数据Hadoop学习之搭建hadoop平台(2.2)
关于大数据,一看就懂,一懂就懵. 一.概述 本文介绍如何搭建hadoop分布式集群环境,前面文章已经介绍了如何搭建hadoop单机环境和伪分布式环境,如需要,请参看:大数据Hadoop学习之搭建had ...
- 我搭建大数据Hadoop完全分布式环境遇到的坑---hadoop: command not found
搭建大数据hadoop环境,遇到很多问题,这里记录一部分,以备以后查看. [遇到问题].在安装配置完hadoop以后,需要格式化namenode,输入指令:hadoop namenode -forma ...
- Linux虚拟服务器--LVS
LVS 百科名片 LVS是一个开源的软件,由毕业于国防科技大学的章文嵩博士于1998年5月创立,可以实现LINUX平台下的简单负载均衡.LVS是Linux Virtual Server的缩写,意思是L ...
随机推荐
- OSPFv3与OSPF的配置
IPv6 路由-OSPFv3 实验目的 1. 掌握 OSPFv3 的配置方法 2. 掌握在帧中继环境下 OSPFv3 的配置方法 3. 掌握 OSPFv3 NSSA 的配置方法 4. ...
- 微信小程序页面跳转导航wx.navigateTo和wx.redirectTo
}) wx.redirectTo(OBJECT) 关闭当前页面,跳转到应用内的某个页面. 还是用上面的三张图示作为例子,当使用wx.redirctTo接口跳转页面时,原来的页面将被删除掉,当然,这是小 ...
- 小程序数据绑定点赞效果切换(交流QQ群:604788754)
如果对本例有更好的意见和建议,希望给予留言或是加群跟群主联系,交流学习. WXML: <block wx:for="{{nums}}" wx:for-index='idx' ...
- 微信浏览器无法下载APK文件的解决方案
大家是不是经常会遇到微信内点击链接或扫描二维码无法打开指定网页的问题?只要你使用微信转发分享,相信你就一定会遇到,那么打不开的原因很简单了,就是被微信拦截了.这个问题我们只需要实现从微信内直接跳出到外 ...
- iSlide——图标库、图示库的用法
iSlide中,有一个“图示库”功能,主要功能是同时排列多块文字或多张图片.单击插图库,会弹出一个新的对话框.从中,可以选择权限.分类.数量数据和样式,也可以直接搜索. 下面就举一个例子:我要开一 ...
- tinyproxy代理配置
tinyproxy代理配置 应用场景: 生产机处于内网,无法直接访问外网,程序安装和漏洞修复等操作需要进行联网操作:通过在办公网(可访问外网)上设置代理服务器,生产机通过代理由办公网访问外网 代理服务 ...
- 14. Longest Common Prefix ★
题目内容:Write a function to find the longest common prefix string amongst an array of strings 题目分析:本题目利 ...
- Python随笔--正则表达式匹配IP
- 实训任务03: 使用Eclipse创建MapReduce工程
实训任务03: 使用Eclipse创建MapReduce工程 实训1: win7中使用Eclipse创建MapReduce工程 实训2:Centos 6.8系统中安装Eclipse 一.下载Eclip ...
- SSH整合后tomcat启动报错SEVERE: Exception starting filter struts2 java.lang.NoClassDefFoundError: org/objectweb/asm/ClassVisitor
错误信息: SEVERE: Exception starting filter struts2 java.lang.NoClassDefFoundError: org/objectweb/asm/C ...