hadoop(二)hadoop的安装部署
系统版本 : 64位CentOS6.6
hadoop版本: 1.2.1
jdk版本: jdk1.6.0_45
环境准备
1.主机分配
主机名 | ip |
master | 1.0.0.0.10 |
slave1 | 1.0.0.0.11 |
slave2 | 1.0.0.0.12 |
slave3 | 1.0.0.0.13 |
2.关闭防火墙和selinux(略)
3.配置dns(每一个节点都配置)
[root@master conf]# cat /etc/hosts
127.0.0.1 localhost localhost.localdomain localhost4 localhost4.localdomain4
:: localhost localhost.localdomain localhost6 localhost6.localdomain6 10.0.0.10 master
10.0.0.11 slave1
10.0.0.12 slave2
10.0.0.13 slave3
4.ssh免密登陆
生成公私钥,在 master 机器的虚拟机命令行下输入 ssh-keygen,一路回车,全部节点都执行
# cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys
# scp .ssh/authorized_keys slave1:~/
# scp .ssh/authorized_keys slave2:~/
# scp .ssh/authorized_keys slave3:~/
然后将jdk和hadoop全部分发到各个slave节点
# cd /home/hadoop
# scp -r hadoop-1.2.1/ slave1:/home/hadoop/
# scp -r hadoop-1.2.1/ slave2:~/home/hadoop
# scp -r hadoop-1.2.1/ slave3:~/home/hadoop
# scp -r jdk1.6.0_45/ slave1:/home/hadoop/
# scp -r jdk1.6.0_45/ slave2:/home/hadoop/
# scp -r jdk1.6.0_45/ slave3:/home/hadoop/
由于实践部分主要以 Hadoop 1.0 环境为主,所以这主要介绍如何搭建 Hadoop 1.0 分布式环境。 整个分布式环境运行在带有 linux 操作系统的虚拟机上,至于虚拟机和 linux 系统的安 装这里暂不做过多介绍。
安装 Hadoop 分布式环境:
1) 安装jdk(所以节点)
# cd /home/hadoop
官网下载地址 版本为jdk1..0_45
# wget http://download.oracle.com/otn/java/jdk/6u45-b06/jdk-6u45-linux-x64.bin
# chmod +x jdk-6u45-linux-x64.bin
# ./jdk-6u45-linux-x64.bin
配置系统环境变量(方便使用jps命令查看java进程)
[root@master hadoop]# grep jdk ~/.bash_profile
PATH=$PATH:$HOME/bin:/home/hadoop/jdk1.6.0_45/bin/
2) 下载 Hadoop 安装包:(所有节点)
使用版本 hadoop-1.2.1
# useradd hadoop
# cd /home/hadoop
# rz 上传 hadoop-1.2.1.tar.gz 安装包
# tar xf hadoop-1.2.1.tar.gz
# 新增 tmp 目录
# mkdir /home/hadoop/hadoop-1.2.1/tmp
# cd conf
3) 配置 Hadoop:(所有节点)
[root@master conf]# pwd
/home/hadoop/hadoop-1.2.1/conf
[root@master conf]# cat masters
master
[root@master conf]# cat slaves
slave1
slave2
slave3
[root@master conf]# cat core-site.xml
<?xml version="1.0"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<!-- Put site-specific property overrides in this file. -->
<configuration>
<property>
<name>hadoop.tmp.dir</name>
<value>/home/hadoop/hadoop-1.2.1/tmp</value>
</property>
<property>
<name>fs.default.name</name>
<value>hdfs://10.0.0.10:9000</value>
</property>
</configuration>
[root@master conf]# cat mapred-site.xml
<?xml version="1.0"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<!-- Put site-specific property overrides in this file. -->
<configuration>
<property>
<name>mapred.job.tracker</name>
<value>http://10.0.0.10:9001</value>
</property>
</configuration>
[root@master conf]# cat hdfs-site.xml
<?xml version="1.0"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<!-- Put site-specific property overrides in this file. -->
<configuration>
<property>
<name>dfs.replication</name>
<value>3</value>
</property>
</configuration>
[root@master conf]# grep JAVA_HOME hadoop-env.sh #(注释掉原先默认的jdk路径换成自己的)
# The only required environment variable is JAVA_HOME. All others are
# set JAVA_HOME in this file, so that it is correctly defined on
# export JAVA_HOME=/usr/lib/j2sdk1.5-sun
export JAVA_HOME=/home/hadoop/jdk1.6.0_45/
4) hadoop的启动和停止
[root@master hadoop]# cd /home/hadoop/hadoop-1.2.1/bin/
#初始化hadoop文件系统
[root@master bin]# ./hadoop namenode -format
如果有error查看日志 百度百度,没什么问题的。
#开启脚本
[root@master bin]# ./start-all.sh
starting namenode, logging to /home/hadoop/hadoop-1.2.1/libexec/../logs/hadoop-root-namenode-master.out
slave3: starting datanode, logging to /home/hadoop/hadoop-1.2.1/libexec/../logs/hadoop-root-datanode-slave3.out
slave2: starting datanode, logging to /home/hadoop/hadoop-1.2.1/libexec/../logs/hadoop-root-datanode-slave2.out
slave1: starting datanode, logging to /home/hadoop/hadoop-1.2.1/libexec/../logs/hadoop-root-datanode-slave1.out
master: starting secondarynamenode, logging to /home/hadoop/hadoop-1.2.1/libexec/../logs/hadoop-root-secondarynamenode-master.out
starting jobtracker, logging to /home/hadoop/hadoop-1.2.1/libexec/../logs/hadoop-root-jobtracker-master.out
slave3: starting tasktracker, logging to /home/hadoop/hadoop-1.2.1/libexec/../logs/hadoop-root-tasktracker-slave3.out
slave1: starting tasktracker, logging to /home/hadoop/hadoop-1.2.1/libexec/../logs/hadoop-root-tasktracker-slave1.out
slave2: starting tasktracker, logging to /home/hadoop/hadoop-1.2.1/libexec/../logs/hadoop-root-tasktracker-slave2.out
#查看进程
主:
[root@master bin]# jps
4672 SecondaryNameNode
4495 NameNode
4861 Jps
4756 JobTracker
从:
[root@slave1 ~]# jps
3525 DataNode
3627 TaskTracker
3695 Jps
如果一切正常,应当有如上的一些进程存在。 #停止脚本
[root@master bin]# ./stop-all.sh
stopping jobtracker
slave3: stopping tasktracker
slave2: stopping tasktracker
slave1: stopping tasktracker
stopping namenode
slave3: stopping datanode
slave1: stopping datanode
slave2: stopping datanode
master: stopping secondarynamenode
5) 测试系统
#做个命令别名
[root@master bin]# grep hdfs /etc/bashrc
alias hdfs='/home/hadoop/hadoop-1.2.1/bin/hadoop'
#使用命令进行测试
[root@master bin]# hdfs fs -ls /
Found items
drwxr-xr-x - root supergroup -- : /dir
drwxr-xr-x - root supergroup -- : /home
有输出,就代表正常。
hadoop(二)hadoop的安装部署的更多相关文章
- Apache Hadoop集群离线安装部署(二)——Spark-2.1.0 on Yarn安装
Apache Hadoop集群离线安装部署(一)——Hadoop(HDFS.YARN.MR)安装:http://www.cnblogs.com/pojishou/p/6366542.html Apac ...
- Ganglia监控Hadoop集群的安装部署[转]
Ganglia监控Hadoop集群的安装部署 一. 安装环境 Ubuntu server 12.04 安装gmetad的机器:192.168.52.105 安装gmond的机 器:192.168.52 ...
- Apache Hadoop集群离线安装部署(三)——Hbase安装
Apache Hadoop集群离线安装部署(一)——Hadoop(HDFS.YARN.MR)安装:http://www.cnblogs.com/pojishou/p/6366542.html Apac ...
- Apache Hadoop集群离线安装部署(一)——Hadoop(HDFS、YARN、MR)安装
虽然我已经装了个Cloudera的CDH集群(教程详见:http://www.cnblogs.com/pojishou/p/6267616.html),但实在太吃内存了,而且给定的组件版本是不可选的, ...
- Hadoop分布式HA的安装部署
Hadoop分布式HA的安装部署 前言 单机版的Hadoop环境只有一个namenode,一般namenode出现问题,整个系统也就无法使用,所以高可用主要指的是namenode的高可用,即存在两个n ...
- Hadoop完全分布式模式安装部署
在Linux上搭建Hadoop系列:1.Hadoop环境搭建流程图2.搭建Hadoop单机模式3.搭建Hadoop伪分布式模式4.搭建Hadoop完全分布式模式 注:此教程皆是以范例讲述的,当然你可以 ...
- 高可用Hadoop平台-Ganglia安装部署
1.概述 最近,有朋友私密我,Hadoop有什么好的监控工具,其实,Hadoop的监控工具还是蛮多的.今天给大家分享一个老牌监控工具Ganglia,这个在企业用的也算是比较多的,Hadoop对它的兼容 ...
- Hadoop+Hbas完全分布式安装部署
Hadoop安装部署基本步骤: 1.安装jdk,配置环境变量. jdk可以去网上自行下载,环境变量如下: 编辑 vim /etc/profile 文件,添加如下内容: export JAVA_HO ...
- 初学者值得拥有【Hadoop伪分布式模式安装部署】
目录 1.了解单机模式与伪分布模式有何区别 2.安装好单机模式的Hadoop 3.修改Hadoop配置文件---五个核心配置文件 (1)hadoop-env.sh 1.到hadoop目录中 2.修 ...
- 一、tars简单介绍 二、tars 安装部署资料准备
1.github地址https://github.com/Tencent/Tars/ 2.tars是RPC开发框架,目前支持c++,java,nodejs,php 3.tars 在腾讯内部已经使用了快 ...
随机推荐
- ob缓存的基本使用
在页面 加载的时候 如果 图片 很多 很大 会造成页面的阻塞降低用户体验 我们在点击页面的时候可以使用OB缓存 整个页面, 当用户点击的时候直接请求的是我们预先准备好的html页面 .也降低了我们数据 ...
- python 2.7版本解决TypeError: 'encoding' is an invalid keyword argument for this function
今天在用yaml处理数据时,由于yaml.load可接收一个byte字符串,unicode字符串,打开的二进制文件或文本文件对象,但字节字符串和文件必须是utf-8,utf-16-be或utf-16- ...
- visual studio cl -d1reportSingleClassLayout查看内存f分布
C:\Users\Administrator\Desktop\cppsrc>cl -d1reportSingleClassLayoutTeacher virtual.cpp 用于 x86 的 M ...
- [BZOJ1597][Usaco2008 Mar]土地购买(斜率优化)
Description 农夫John准备扩大他的农场,他正在考虑N (1 <= N <= 50,000) 块长方形的土地. 每块土地的长宽满足(1 <= 宽 <= 1,000, ...
- 菜鸟学Linux - bash的配置文件
bash是各大Linux发行版都支持的shell.当我们登陆bash的时候,虽然我们什么都没做,但是我们已经可以在bash中调用各种各样的环境变量了.这是因为,系统中已经定义了一系列的配置文件,以及加 ...
- 数据库sql中distinct用法注意事项
在写sql中去重复等操作,需要用到distinct. 在使用distinct的时候要注意,尤其是在有行列转换的时候.要把sql运行出来看看是不是与你想要的结果一样. 通过自己试验,distinct有从 ...
- Go语言之并发编程(四)
同步 Go 程序可以使用通道进行多个 goroutine 间的数据交换,但这仅仅是数据同步中的一种方法.通道内部的实现依然使用了各种锁,因此优雅代码的代价是性能.在某些轻量级的场合,原子访问(atom ...
- ogre3D学习基础18 -- 材质的使用与脚本的简单书写
这一节以基础16为基础,练习材质的使用. 第一,看看框架 //material #include "ExampleApplication.h" class TutorialAppl ...
- 接口测试之post和get的区别
post和get都可以给服务器发送请求,在做接口测试的时候,我发现有些时候某些功能的接口文档中是用post请求发送的, 但是只要接口一致参数一致用post也能发送请求,并且获取到的返回也是正确的. 那 ...
- getshell不用英文数字 或者不用下划线
getshell不用英文字母和数字 上代码 实际代码没有echo strlen($code);我测试的时候加上去的 思路是eval执行getFlag函数. 过滤了字母和数字,长度得小于40 直接看pa ...