BG.Hadoop.Master
1. 安装JDK
JDK安装包复制到/opt文件夹
cd /opt
rpm -ivh jdk-8u121-linux-x64.rpm
vim /etc/profile
增加 JAVA_HOME=/usr/java/default
PATH=$JAVA_HOME/bin:$PATH
source /etc/profile
验证 echo $JAVA_HOME
java -version
2. 配置SSH(免密码登录),Hadoop集群间登录使用。
a> 在客户端进行如下操作:
ssh-keygen -t rsa 生成密钥
cat id_rsa.pub >> authorized_keys 客户端注册公钥
cat id_rsa.pub | ssh root@bigdata.mysql "cat - >> ~/.ssh/authorized_keys" 注册公钥到服务器
b> 在服务器段进行:
chmod 700 -R .ssh
chmod 600 .ssh/authorized_keys
或者:在客户端直接 ssh-copy-id ~/.ssh/id_rsa.pub root@bigdata.mysql
c> 测试
在客户端:ssh bigdata.mysql
3. Hadoop集群搭建-Master
tar zxf hadoop-2.7.3.tar.gz
vim /etc/profile
增加 HADOOP_HOME=/opt/hadoop-2.7.3
PATH增加$HADOOP_HOME/bin:段
source /etc/profile
检查 echo $HADOOP_HOME
cd /opt/hadoop-2.7.3/etc/hadoop/
配置:core-site.xml; hdfs-site.xml; yarn-site.xml; mapred-site.xml; slaves
core-site.xml
<property>
<name>fs.default.name</name>
<value>hdfs://bigdata.hadoop.master:9000</value>
</property> <property>
<name>hadoop.tmp.dir</name>
<value>/opt/hadoop-2.7.3/current/tmp</value>
</property> <property>
<name>fs.trash.interval</name>
<value>4320</value>
</property>
mkdir -p /opt/hadoop-2.7.3/current/tmp
hdfs-site.xml
<property>
<name>dfs.namenode.name.dir</name>
<value>/opt/hadoop-2.7.3/current/data</value>
</property>
<property>
<name>dfs.namenode.name.dir</name>
<value>/opt/hadoop-2.7.3/current/name</value>
</property> <property>
<name>dfs.datanode.data.dir</name>
<value>/opt/hadoop-2.7.3/current/data</value>
</property> <property>
<name>dfs.replication</name>
<value>3</value>
</property> <property>
<name>dfs.webhdfs.enabled</name>
<value>true</value>
</property> <property>
<name>dfs.permission.superusergroup</name>
<value>staff</value>
</property> <property>
<name>dfs.permission.enabled</name>
<value>false</value>
</property>
mkdir -p /opt/hadoop-2.7.3/current/name
mkdir -p /opt/hadoop-2.7.3/current/data
yarn-site.xml
<property>
<name>yarn.resourcemanager.hostname</name>
<value>bigdata.hadoop.master</value>
</property> <property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property> <property>
<name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name>
<value>org.apache.hadoop.mapred.ShuffleHandler</value>
</property> <property>
<name>yarn.resourcemanager.address</name>
<value>bigdata.hadoop.master:18040</value>
</property> <property>
<name>yarn.resourcemanager.scheduler.address</name>
<value>bigdata.haddop.master:18030</value>
</property> <property>
<name>yarn.resourcemanager.resource-tracker.address</name>
<value>bigdata.hadoop.master:18025</value>
</property> <property>
<name>yarn.resource.manager.admin.address</name>
<value>bigdata.hadoop.master:18141</value>
</property> <property>
<name>yarn.resourcemanager.webapp.address</name>
<value>bigdata.hadoop.master:18088</value>
</property> <property>
<name>yarn.log-aggregation-enable</name>
<value>true</value>
</property> <property>
<name>yarn.log-aggregation.retain-seconds</name>
<value>86400</value>
</property> <property>
<name>yarn.log-aggregation.retain-check-interval-seconds</name>
<value>86400</value>
</property> <property>
<name>yarn.nodemanager.remote-app-log-dir</name>
<value>/tmp/logs</value>
</property> <property>
<name>yarn.nodemanager.remote-app-log-dir-suffix</name>
<value>logs</value>
</property>
mapred-site.xml
cp mapred-site.xml.template mapred-site.xml
vim mapred-site.xml
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property> <property>
<name>mapreduce.jobtracker.http.address</name>
<value>bigdata.hadoop.master:50030</value>
</property> <property>
<name>mapreduce.jobhistory.address</name>
<value>bigdata.hadoop.master:10020</value>
</property> <property>
<name>mapreduce.jobhistory.webapp.address</name>
<value>bigdata.hadoop.master:19888</value>
</property> <property>
<name>mapreduce.jobhistory.done-dir</name>
<value>/jobhistory/done</value>
</property> <property>
<name>mapreduce.intermediate-done-dir</name>
<value>/jobhistory/done_intermediate</value>
</propery> <property>
<name>mapreduce.job.ubertask.enable</name>
<value>true</value>
</property>
slaves
bigdata.hadoop.master
bigdata.hadoop.slave1
bigdata.hadoop.slave2
bigdata.hadoop.slave3
vim /opt/hadoop-2.7.3/etc/hadoop/hadoop-env.sh
export JAVA_HOME=/usr/java/default
4. 创建Slaves虚拟机
bigdata.hadoop.slave1
bigdata.hadoop.slave2
bigdata.hadoop.slave3
5. SSH免密码登录
在bigdata.hadoop.master上执行:
ssh-keygen -t rsa --生成密钥公钥,一路回车
ssh-copy-id -i ~/.ssh/id_rsa.pub root@bigdata.hadoop.slave1
ssh-copy-id -i ~/.ssh/id_rsa.pub root@bigdata.hadoop.slave2
ssh-copy-id -i ~/.ssh/id_rsa.pub root@bigdata.hadoop.slave2
cat ~/.ssh/id_rsa.pub ~/.ssh/authorized_keys
测试免密码登录
ssh bigdata.hadoop.slave1, ssh bigdata.hadoop.slave2, ssh bigdata.hadoop.slave3, ssh bigdata.hadoop.master
6. 关闭防火墙和SELIXNUX
service iptables stop --临时关闭防火墙
chkconfig iptables off --永久关闭
chkconfig --list|grep iptables
vi /etc/sysconfig/selinux
SELINUX=disabled
setenforce 0
getenforce
7. Copy文件到虚拟机
安装scp命令:yum install openssh-clients
scp -r /opt/hadoop-2.7.3 root@bigdata.hadoop.slave1:/opt/
配置Slaves的etc/profile
8. 格式化Hadoop
在Master上执行: hdfs namenode -format
9. 启动Hadoop
在Master上执行:/opt/hadoop-2.7.3/sbi/start-all.sh
10. 查看Hadoop状态
在Master执行:JPS
NodeManager; NameNode; SecondaryNameNode; ResourceManager; DataNode
在Slaves上执行:JPS
NodeManager; DataNode;
在外部访问:http://bigdata.hadoop.master:50070 和 http://bigdata.hadoop.master:18088
打开ServiceHistoryServer
/opt/hadoop-2.7.3/sbin/mr-jobhistory-daemon.sh start historyserver
在外部访问:http://bigdata.hadoop.master:19888
11. 执行Map-Reduce任务
词频统计
1. 将1个txt文本上传到hdfs
hdfs dfs -put testfile.txt /task1/input/testfile
2. 执行Map-Reduce任务
hadoop jar /opt/hadoop-2.7.3/share/hadoop/mareduce/hadoop-mapreduce-examples-2.7.3 jar wordcound /task1/input/testfile /task1/output
3. 查看输出结果
hdfs dfs -cat /task1/output/part-r-00000
BG.Hadoop.Master的更多相关文章
- Hadoop,master和slave简单的分布式搭建
搭建过程中配置免密钥登录为了以后方便使用 [提醒]安装Hadoop中会遇到新建文件夹,配置路径等问题,这个不能生搬硬套,要使用自己配置的路径,灵活使用. Hadoop的部署配置文件在http://bl ...
- Hadoop分布式系统的安装部署
1.关于虚拟机的复制 新建一台虚拟机,系统为CentOS7,再克隆两台,组成一个三台机器的小集群.正常情况下一般需要五台机器(一个Name节点,一个SecondName节点,三个Data节点.) 此外 ...
- 安装hadoop+zookeeper ha
安装hadoop+zookeeper ha 前期工作配置好网络和主机名和关闭防火墙 chkconfig iptables off //关闭防火墙 1.安装好java并配置好相关变量 (/etc/pro ...
- Hadoop学习笔记—6.Hadoop Eclipse插件的使用
开篇:Hadoop是一个强大的并行软件开发框架,它可以让任务在分布式集群上并行处理,从而提高执行效率.但是,它也有一些缺点,如编码.调试Hadoop程序的难度较大,这样的缺点直接导致开发人员入门门槛高 ...
- HADOOP安装指南-Ubuntu15.10和hadoop2.7.2
Ubuntu15.10中安装hadoop2.7.2安装手册 太初 目录 1. Hadoop单点模式... 2 1.1 安装步骤... 2 0.环境和版本... 2 1.在ubu ...
- 大数据系列(4)——Hadoop集群VSFTP和SecureCRT安装配置
前言 经过前三篇文章的介绍,已经通过VMware安装了Hadoop的集群环境,当然,我相信安装的过程肯定遇到或多或少的问题,这些都需要自己解决,解决的过程就是学习的过程,本篇的来介绍几个Hadoop环 ...
- hadoop伪分布式平台搭建(centos 6.3)
最近要写一个数据量较大的程序,所以想搭建一个hbase平台试试.搭建hbase伪分布式平台,需要先搭建hadoop平台.本文主要介绍伪分布式平台搭建过程. 目录: 一.前言 二.环境搭建 三.命令测试 ...
- 搭建ubuntu14.04的hadoop集群【docker容器充当服务器】
首先弄出来装有hadoop.java.ssh.vim的镜像起名badboyf/hadoop.做镜像有两种方法,一种是用Dockerfile来生成一个镜像,一种是基于ubuntu14.04的基础镜像生成 ...
- Hadoop安装及配置
一.系统及软件环境 1.操作系统 CentOS release 6.5 (Final) 内核版本:2.6.32-431.el6.x86_64 master.fansik.com:192.168.83. ...
随机推荐
- C#DataGridView的简单使用
首先创建一个DataGridView控件,然后创建列(包括列名的定义), 由于我不是和数据库进行连接,只是为了输出好看一点. 删除所有数据: while (this.dataGridView1.Row ...
- Python实现汉诺塔问题的可视化(以动画的形式展示移动过程)
学习Python已经有一段时间了,也学习了递归的方法,而能够实践该方法的当然就是汉诺塔问题了,但是这次我们不只是要完成对汉诺塔过程的计算,还要通过turtle库来体现汉诺塔中每一层移动的过程. 一.设 ...
- CodeChef TWOROADS(计算几何+拉格朗日乘数法)
题面 传送门 简要题意:给出\(n\)个点,请求出两条直线,并最小化每个点到离它最近的那条直线的距离的平方和,\(n\leq 100\) orz Shinbokuow 前置芝士 给出\(n\)个点,请 ...
- hot code loading in nodejs
Hot Code Loading in Node.js Node.js Web应用代码热更新的另类思路 Reading through Fever today, this post by Jack M ...
- SpringBoot程序远程debug
所谓的远程调试就是服务端程序运行在一台远程服务器上,我们可以在本地服务端的代码(前提是本地的代码必须和远程服务器运行的代码一致)中设置断点,每当有请求到远程服务器时时能够在本地知道远程服务端的此时的内 ...
- 首次进入页面的时候用js刷新页面
window.onload = function(){ var url=document.location.href; //获取浏览器访问栏里的地址 if( url.indexOf("tim ...
- Swift循环遍历集合方法
第一种方式:for-in循环 OC延续了C语言的for循环,在Swift中被彻底改造,我们无法再使用传统形式的for循环了 遍历数组和字典: //遍历数组 let iosArray = [&quo ...
- 3. C++ POD类型
POD全称Plain Old Data,通常用于说明1个类型的属性.通俗的讲,一个类或结构体通过二进制拷贝后还能保持其数据不变,那么它就是一个POD类型. C++11将POD划分为2个基本概念的合集, ...
- 线程安全单例最佳实践,C#中的Lazy是如何保证线程安全的
在.NET 4.0之后,.NET Framework中提供了一种安全的延迟加载类型LazyLazy能够在多线程环境下,保证GetValue函数只执行一次,从而实现单例模式 在过去,实现单例模式我们通常 ...
- Postman—命令执行脚本及生成报告
前言 前面的应用中,都是在postman图形界面工具里面进行测试,但是有时候我们需要把测试脚本集成到CI平台,或者在非图形界面的系统环境下进行测试,那么我们该如果处理呢 通过newman来执行post ...