Hadoop原生态版安装
1 安装环境和必要软件
3 台 ubuntu 16.04
vim
2 创建hadoop用户
sudo useradd -m hadoop -s /bin/bash
sudo passwd hadoop
sudo adduser hadoop sudo
3 更新软件源
公司环境限制系统的的源无法下载java sdk所以这里更新到阿里源,3台服务器都需要
cd /etc/apt
cp sources.list sources.list.bak
vim sources.list
#al Xerus_ - Release amd64 (20160420.1)]/ xenial main restricted deb-src http://archive.ubuntu.com/ubuntu xenial main restricted #Added by software-properties deb http://mirrors.aliyun.com/ubuntu/ xenial main restricted deb-src http://mirrors.aliyun.com/ubuntu/ xenial main restricted multiverse universe #Added by software-properties deb http://mirrors.aliyun.com/ubuntu/ xenial-updates main restricted deb-src http://mirrors.aliyun.com/ubuntu/ xenial-updates main restricted multiverse universe #Added by software-properties deb http://mirrors.aliyun.com/ubuntu/ xenial universe deb http://mirrors.aliyun.com/ubuntu/ xenial-updates universe deb http://mirrors.aliyun.com/ubuntu/ xenial multiverse deb http://mirrors.aliyun.com/ubuntu/ xenial-updates multiverse deb http://mirrors.aliyun.com/ubuntu/ xenial-backports main restricted universe multiverse deb-src http://mirrors.aliyun.com/ubuntu/ xenial-backports main restricted universe multiverse #Added by software-properties deb http://archive.canonical.com/ubuntu xenial partner deb-src http://archive.canonical.com/ubuntu xenial partner deb http://mirrors.aliyun.com/ubuntu/ xenial-security main restricted deb-src http://mirrors.aliyun.com/ubuntu/ xenial-security main restricted multiverse universe #Added by software-properties deb http://mirrors.aliyun.com/ubuntu/ xenial-security universe deb http://mirrors.aliyun.com/ubuntu/ xenial-security multiverse
sudo apt-get update
4 更改计算机名称和IP映射
sudo vim /etc/hostname
sudo vim /etc/hosts
三台服务器都要改成只保留一个内部地址映射,以及对另外两条服务器的ip映射,完成后重启生效

5 安装ssh
sudo apt-get install openssh-server
这里直接配置对三台服务器的公用key,如果没有如果没有 ~/.ssh 目录,先执行一次ssh localhost
cd ~/.ssh #
rm ./id_rsa*
ssh-keygen -t rsa
Master服务器上
cat ./id_rsa.pub >> ./authorized_keys
其他两台Slave服务器,后续还要用scp复制文件到Slave
scp ~/.ssh/id_rsa.pub hadoop@Slave1:/home/hadoop/
在设置为公用key
cd ~/.ssh #
cat ./id_rsa.pub >> ./authorized_keys
安装和配置JAVA JDK
直接用如下命令安装,如安装提示无法下载,要更新源,安装的版本都是1.8
sudo apt-get install default-jre default-jdk
配置java 到环境变量中
vim ~/.bashrc
export JAVA_HOME=/usr/lib/jvm/default-java #在打开的bashrc开头添加
source ~/.bashrc
6 安装 Hadoop
因为java-sdk是1.8 目前用2.9到3.0版本没发现问题,现在Master服务器上安装
下载网址:http://www.apache.org/dyn/closer.cgi/hadoop/common/hadoop-2.9.0
如果不行请使用如下地址
https://mirrors.cnnic.cn/apache/hadoop/common/
http://mirror.bit.edu.cn/apache/hadoop/common/
下载hadoop
sudo wget http://mirrors.shu.edu.cn/apache/hadoop/common/hadoop-2.9.0/hadoop-2.9.0.tar.gz
我的是下载在HOME下,复制到/usr/local/中
cp hadoop-2.9.0.tar.gz /usr/local
在/usr/local/ 解压
sudo tar -zxf hadoop-2.9.0.tar.gz
重命名文件夹并更改权限
sudo mv ./hadoop-2.9.0/ ./hadoop
sudo chown -R hadoop ./hadoop
在解压的hadoop文件中切换到配置文件目录,配置code-site.xml /hdfs-site.xml/ mapred-site.xml /yarn-site.xml
后面有时间深入研究一下配置文档节点的含义。
但是注意的是3.0版本以上的对应配置的web 端口有变化,后续补充一下。
cd ./etc/hadoop/
code-site.xml

hdfs-site.xml

mapred-site.xml 默认文件名为 mapred-site.xml.template 需修改名称

yarn-site.xml

复制到两个Slave服务器上:
scp -r ./hadoop Slave2:/home/
正常配置了ssh公钥登录是不需要输入账号的,如提示没权限用如下复制,添加账号进行,提示yes/no 一定要完整的输入
scp -r ./hadoop hadoop@Slave1:/home/
登录到Slave上,将/home中的hadoop复制到/usr/local中,并添加权限
sudo cp hadoop/ /usr/local
sudo chown -R hadoop /usr/local/hadoop
7 添加Hadoop到path变量中

8 启动服务
Master服务器上格式化NameNode和启动hadoop
hdfs namenode -format #如果配置好执行一次就好,多次自行会导致后续在启动时Slave datanode无法启动
start-dfs.sh
start-yarn.sh
mr-jobhistory-daemon.sh start historyserver
执行jps查看运行的进程:

在Master服务器上执行 hdfs dfsadmin -report,查看data节点的信息

打开网页端 http://10.19.52.80:50070 的结果:

后面再记录一下 用Python开发 HDFS 的上传下载
作者:SMILE_NO_09
链接:https://www.jianshu.com/p/11ad16ea03c2
來源:简书
简书著作权归作者所有,任何形式的转载都请联系作者获得授权并注明出处。
Hadoop原生态版安装的更多相关文章
- Hadoop集群安装配置教程_Hadoop2.6.0_Ubuntu/CentOS
摘自:http://www.powerxing.com/install-hadoop-cluster/ 本教程讲述如何配置 Hadoop 集群,默认读者已经掌握了 Hadoop 的单机伪分布式配置,否 ...
- Hadoop完全分布式安装教程
一.软件版本 Hadoop版本号:hadoop-2.6.0.tar: VMWare版本号:VMware-workstation-full-11.0.0-2305329 Ubuntu版本号:ubuntu ...
- Hadoop完全分布式安装
一.软件版本 Hadoop版本号:hadoop-2.6.0.tar: VMWare版本号:VMware-workstation-full-11.0.0-2305329 Ubuntu版本号:ubuntu ...
- Hadoop社区版搭建
1.环境准备 1.1 硬件配置 设备名 参数 数量 6台 系统 centos6.5 内存 64G 硬盘 32T/台 CPU 16核/台 1.2 软件版本 Hadoop-2.x 下载地址 JDK1.7 ...
- 【大数据系列】hadoop单节点安装官方文档翻译
Hadoop: Setting up a Single Node Cluster. HADOOP:建立单节点集群 Purpose Prerequisites Supported Platforms R ...
- hadoop集群安装配置详细教程
在上一篇的分享文章中我是给大家分享了运行部署hadoop的一些安装准备工作,这篇接上一篇继续为大家分享一些个人的学习经验总结.我学习用的是大快发行版DKHadoop,所以所有的经验分享都是以DKHad ...
- spark,hadoop集群安装注意
安装步骤严格参看厦门大学数据实验室教程 Spark 2.0分布式集群环境搭建(Python版) 安装Hadoop并搭建好Hadoop集群环境 遇到的问题 1.ubuntu 安装后升级.python是3 ...
- 2 Hadoop集群安装部署准备
2 Hadoop集群安装部署准备 集群安装前需要考虑的几点硬件选型--CPU.内存.磁盘.网卡等--什么配置?需要多少? 网络规划--1 GB? 10 GB?--网络拓扑? 操作系统选型及基础环境-- ...
- phpstorm10.0.3破解版安装教程及汉化方法
phpstorm是一个轻量级且便捷的PHP IDE,其旨在提供用户效率,可深刻理解用户的编码,提供智能代码补全,快速导航以及即时错误检查.不但是php开发的利器,前端开发也是毫不逊色的.下面记录php ...
随机推荐
- tmux使用总结
ctrl+b +%:增加垂直分屏 ctlr+b +左右箭头: 在垂直分屏中移动 ctrl+b+c:新建窗口(不分屏) ctrl+b+数字键: 切换窗口 ctrl+b+d: 断开窗口 tmux a : ...
- C. Maximum Subrectangle
链接 [http://codeforces.com/contest/1060/problem/C] 题意 给你两个数列,可以构成一个矩阵C,ci,j=ai⋅bj 1≤x1≤x2≤n , 1≤y1≤y2 ...
- Notes of Daily Scrum Meeting(12.24)
平安夜了,我们还在这里辛苦地赶代码,整个人都不好了... 今天的团队任务总结如下: 团队成员 今日团队工作 陈少杰 寻找大神帮助,调试网络连接 王迪 建立搜索的UI界面,把算法加入进去 金鑫 调试网络 ...
- 个人博客作业Week7(阅读文章,心得体会)
Alpha阶段结束了,内心可以说是五味杂陈.不是说我们的产品拿不上台面那般差劲,复杂的心绪主要来源于和别的队的比较,别的队才刚刚发布没多久访问量和注册量就破百了,并且还发起了找bug送红包的活动.可能 ...
- Linux基础实践
Linux基础实践 1.1 应用安装 要求:掌握软件源的维护方法,配置系统使用软件源镜像.掌握通过软件源来查找,安装,卸载,更新软件的方法 备份原地址列表文件:sudo cp /etc/apt/sou ...
- 《Linux内核分析》实践2
<Linux及安全>实践2 一.Linux基本内核模块 1.1什么是内核模块 linux模块是一些可以作为独立程序来编译的函数和数据类型的集合.之所以提供模块机制,是因为Linux本身是一 ...
- 关于QQ的NABCD模型
关于QQ的NABCD模型 N--Need 随着电脑的普及,人们在网络上进行交流的时间越来越多,由于现有的交流工具还不是那么的完善,还不能够完全满足人们在交流时的需求.因此为了满足人们更多的需求,我们设 ...
- 08-java学习-数组-增强for循环-数组与方法-main函数参数
数组定义和使用 数组与方法的结合使用 main函数传参
- HDOJ1287_破译密码
一道正常简单题 曲折解题 做这题的时候看了很久没有看懂是什么意思,最后以为是一道单独的数学题把B这个大写字母猜出来进行异或运算,还不知道C里面异或运算可以直接有符号的:),导致又去学习了一下十进制转换 ...
- Cron任务调度CronNET
Cron任务调度CronNET 阅读目录 1.Cron介绍和工具 2.CronNET介绍和使用 3.cron-expression-descriptor使用 4.资源 如果用知乎,可以关注专栏:.NE ...