安装的节点如下:
1个namenode、1个hiveserver、3个dataNode
192.168.1.139   namenode1
192.168.1.146   hiveserver
192.168.1.164   datanode1
192.168.1.165   datanode2
192.168.1.166   datanode3

===========安装步骤记录================================
一、主机环境配置(所有节点都要配置)
1、配置主机名、JDK、网卡、关闭防火墙及SElinux
[root@namenode1 ~]# cat /etc/sysconfig/network  (主机名小写、不要有下划线)
NETWORKING=yes
HOSTNAME=namenode1

[root@namenode1 ~]# cat /etc/sysconfig/network-scripts/ifcfg-eth0
DEVICE=eth0
HWADDR=08:00:27:C2:0C:25
TYPE=Ethernet
UUID=048c738b-8b3a-4deb-9478-e17c760b92bd
ONBOOT=yes
NM_CONTROLLED=yes
BOOTPROTO=static
IPADDR=192.168.1.139
MASK=255.255.255.0
GATEWAY=192.168.1.1

[root@namenode1 ~]# getenforce (selinux设置为disabled、关闭防火墙(不要开机启动))
Disabled

[root@namenode1 ~]# cat /etc/hosts
127.0.0.1   localhost localhost.localdomain localhost4 localhost4.localdomain4
::1         localhost localhost.localdomain localhost6 localhost6.localdomain6
192.168.1.139   namenode1
192.168.1.146   hiveserver
192.168.1.164   datanode1
192.168.1.165   datanode2
192.168.1.166   datanode3

Java环境安装
(rhel6.5使用系统默认安装的jdk)

编辑"/etc/profile"文件,在后面添加Java的"JAVA_HOME"、"CLASSPATH"以及"PATH"内容如下:
# set java environment
export JAVA_HOME=/usr/java/jdk1.7.0_25/
export JRE_HOME=/usr/java/jdk1.7.0_25/jre
export CLASSPATH=.:CLASSPATH: CLASSPATH:JAVA_HOME/lib:$JRE_HOME/lib
export PATH=PATH: PATH:JAVA_HOME/bin:$JRE_HOME/bin
执行source /etc/profile

2、swap配置
Cloudera 建议将 /proc/sys/vm/swappiness 设置为 0。默认设置为 60。
查看当前swap分区设置cat /proc/sys/vm/swappiness
临时修改值:sudo sysctl vm.swappiness=0
永久修改值:vim /etc/sysctl.conf,在最后加一行vm.swappiness = 0

swappiness的值的大小对如何使用swap分区是有着很大的联系
swappiness=0的时候表示最大限度使用物理内存,然后才是 swap空间
swappiness=100的时候表示积极的使用swap分区,并且把内存上的数据及时的搬运到swap空间里面
 
3、时间同步配置
http://www.cnblogs.com/rusking/p/5378854.html

二、配置本地YUM源及安装必要的Packages
YUM源需要在单独的一台安装服务器上配置,也可以在上面5台服务器中的任意一台,我这里是配置在namenode1服务器上。
1、 挂截系统镜像文件  #mount /dev/cdrom /media/os_repo 
2、修改配置文件local.repo
[root@namenode1 os_repo]# vi /etc/yum.repos.d/local.repo

###文件名字只能是local.repo,把原来的配置文件改名或删除,这个Local.repo文件只需要在安装服务器namenode1的创建就行。
[rhel6]
name=rhel6
baseurl=file:///media/os_repo/Server  --注意这里是Server目录,而不是Packages目录
enabled=1
gpgcheck=0

4、安装apache
[root@namenode1 /]# yum install httpd
[root@namenode1 /]# vi /etc/httpd/conf/httpd.conf
将里面的 #ServerName localhost:80 注释去掉
[root@namenode1 /]# service httpd restart
[root@namenode1 /]# chkconfig httpd on --开机启动

5、安装桌面环境

(用于X-Manager连接安装)--可以不用安装,后来发现直接用CRT连接过去也能执行安装
检查是是否安装:
[root@namenode1 ~]# yum  grouplist "X Window System"
Loaded plugins: product-id, refresh-packagekit, security, subscription-manager
This system is not registered to Red Hat Subscription Management. You can use subscription-manager to register.
Setting up Group Process
Installed Groups:
   X Window System
Done
[root@namenode1 ~]# yum grouplist "Desktop"
Loaded plugins: product-id, refresh-packagekit, security, subscription-manager
This system is not registered to Red Hat Subscription Management. You can use subscription-manager to register.
Setting up Group Process
Installed Groups:
   Desktop
Done

安装命令:
yum groupinstall "X Window System"
yum groupinstall "Desktop"

安装createrepo工具:
[root@namenode1]# yum install createrepo-0.9.9-18.el6.noarch.rpm

6、配置远程YUM源
把安装包拷贝到/var/www/html目录下
[root@namenode1 hadoop-installer]# ls  --解压cdh5.5.0-bin.zip
cdh5   cm5

[root@namenode1 hadoop-installer]# ls cdh5/
noarch  x86_64
[root@namenode1 hadoop-installer]# ls cm5/
x86_64

[root@namenode1 html]# pwd
/var/www/html
[root@namenode1 hadoop-installer]# cp -rf cdh5/ /var/www/html/  
[root@namenode1 hadoop-installer]# cp -rf cm5/ /var/www/html/
[root@namenode1 hadoop-installer]# cp -rf Packages/ /var/www/html/os/    --Packages是操作系统ISO镜像里自带的RPM包目录

创建yum库:
[root@namenode1 ~]# createrepo -d /var/www/html/cm5/
[root@namenode1 ~]# createrepo -d /var/www/html/cdh5/
[root@namenode1 ~]# createrepo -d /var/www/html/os/

修改目录权限:
[root@namenode1 html]# chmod -Rf 777 *
[root@namenode1 html]# ll
total 12
drwxrwxrwx 5 root root 4096 Mar 20 22:09 cdh5
drwxrwxrwx 4 root root 4096 Mar 20 22:09 cm5
drwxrwxrwx 4 root root 4096 Mar 20 22:12 os

检查YUM是否配置正确:
yum list
通过浏览器访问,测试是否正常:
http://192.168.1.139/os
http://192.168.1.139/cm5
http://192.168.1.139/cdh5
查看能否进到各个子目录,看到安装包。

创建hadoop.repo文件:

[root@namenode1 yum.repos.d]# vi /etc/yum.repos.d/hadoop.repo --这个配置文件,每个节点都要修改,删除或修改所有原来的配置文件为bak
[cdh5]
name=cdh5
baseurl=http://192.168.1.139/cdh5
gpgcheck=0

[cm5]
name=cm5
baseurl=http://192.168.1.139/cm5
gpgcheck=0

[os-pkg]
name=os-pkg
baseurl=http://192.168.1.139/os
gpgcheck=0
~

三、创建hadoop用户及配置Ssh免密码登录
1、root账号登录,每个节点都创建hadoop用户及创建密码
useradd hadoop
passwd hadoop

2、hadoop用户登录,每台服务器都生成公有密钥
执行命令:
ssh-keygen -t rsa --生成密钥

NameNode1节点生成认证密钥文件:
[hadoop@namenode1 .ssh]$ cp id_rsa.pub authorized_keys
[hadoop@namenode1 .ssh]$ ls
authorized_keys  id_rsa  id_rsa.pub

3、root账号登录,每台服务器都要修改sshd_config配置文件
[root@namenode1 ~]# vi /etc/ssh/sshd_config
RSAAuthentication yes # 启用 RSA 认证
PubkeyAuthentication yes # 启用公钥私钥配对认证方式
AuthorizedKeysFile  %h/.ssh/authorized_keys  # 公钥文件路径

4、root账号登录,修改sudoers配置文件
vi /etc/sudoers --root账号修改,增加以下两项
hadoop ALL=(ALL) ALL
hadoop ALL=(ALL) NOPASSWD: ALL
修改完后,service sshd restart

5、hadoop用户登录每台服务器,发送各自的公有密钥文件到NameNode1
[hadoop@DataNode1 .ssh]$ scp /home/hadoop/.ssh/id_rsa.pub hadoop@192.168.1.139:/home/hadoop/.ssh/id_rsa.pub_DataNode1
[hadoop@DataNode2 ~]$ scp /home/hadoop/.ssh/id_rsa.pub hadoop@192.168.1.139:/home/hadoop/.ssh/id_rsa.pub_DataNode2
[hadoop@DataNode3 ~]$ scp /home/hadoop/.ssh/id_rsa.pub hadoop@192.168.1.139:/home/hadoop/.ssh/id_rsa.pub_DataNode3
[hadoop@HiveServer ~]$ scp /home/hadoop/.ssh/id_rsa.pub hadoop@192.168.1.139:/home/hadoop/.ssh/id_rsa.pub_HiveServer

6、hadoop用户登录NameNode1节点,将公有密钥文件追加到authorized_keys文件
[hadoop@namenode1 .ssh]$ ls
authorized_keys  id_rsa  id_rsa.pub  id_rsa.pub_DataNode1  id_rsa.pub_DataNode2  id_rsa.pub_DataNode3  id_rsa.pub_HiveServer

[hadoop@namenode1 .ssh]$ cat id_rsa.pub_DataNode1 >> authorized_keys
[hadoop@namenode1 .ssh]$ cat id_rsa.pub_DataNode2 >> authorized_keys
[hadoop@namenode1 .ssh]$ cat id_rsa.pub_DataNode3 >> authorized_keys
[hadoop@namenode1 .ssh]$ cat id_rsa.pub_HiveServer >> authorized_keys

7、hadoop用户登录,将上一步生成的authorized_keys再发回给每一台服务器的hadoop用户
[hadoop@namenode1 .ssh]$ scp /home/hadoop/.ssh/authorized_keys hadoop@192.168.1.164:/home/hadoop/.ssh/authorized_keys
[hadoop@namenode1 .ssh]$ scp /home/hadoop/.ssh/authorized_keys hadoop@192.168.1.165:/home/hadoop/.ssh/authorized_keys
[hadoop@namenode1 .ssh]$ scp /home/hadoop/.ssh/authorized_keys hadoop@192.168.1.166:/home/hadoop/.ssh/authorized_keys
[hadoop@namenode1 .ssh]$ scp /home/hadoop/.ssh/authorized_keys hadoop@192.168.1.146:/home/hadoop/.ssh/authorized_keys

8、root账号登录,所有服务器重启sshd服务
# service sshd restart

9、测试hadoop用户,免密码相互登录各台服务器
[root@namenode1 ~]# su - hadoop
[hadoop@namenode1 ~]$ ssh hadoop@datanode1   --第一次连接需要输入yes确认
The authenticity of host 'datanode1 (192.168.1.164)' can't be established.
RSA key fingerprint is 60:3b:d1:69:67:85:9e:7f:3a:9f:93:0e:6f:47:6d:80.
Are you sure you want to continue connecting (yes/no)? yes
Warning: Permanently added 'datanode1' (RSA) to the list of known hosts.
[hadoop@DataNode1 ~]$ exit
logout
Connection to datanode1 closed.
[hadoop@namenode1 ~]$ ssh hadoop@datanode1  --不需要输入密码,直接登录
Last login: Sat Mar 19 23:54:35 2016 from namenode1
[hadoop@DataNode1 ~]$

同样的方法,再测试hadoop用户登录到其它服务器。
[hadoop@namenode1 ~]$ ssh hadoop@hiveserver
[hadoop@namenode1 ~]$ ssh hadoop@datanode2
[hadoop@namenode1 ~]$ ssh hadoop@datanode3

同时,其它服务器也可以用同样的方法,不需要输入密码,相互登录。

四、安装hadoop程序
1、将介质中cloudera-manager-installer.bin文件复制到安装监控服务器的/opt目录中,然后执行下面的命令:
./cloudera-manager-installer.bin --skip_repo_package=1

安装完成后,会有对话框提示:
Your browser should now open to http://192.168.1.139:7180/.Log in to cloudera manater with username and passwd set to admin to continue installation.
Installation was successful.

2、通过浏览器访问http://192.168.1.139:7180/ 在web界面继续完成Hadoop的安装及基本配置。

  • 安装过程中使用自定义存储库:

http://192.168.1.139/cm5
http://192.168.1.139/cdh5

  • 钩选:安装Java无限制强度加密政策文件
    安装过程中,注意记下postgresql数据库的用户名密码
  • ssh登录凭据使用非root账号hadoop
  • 使用嵌入式数据库PostgreSQL,这里也可以使用其它用户自定义安装的数据库。

Hadoop安装测试简单记录的更多相关文章

  1. hadoop环境安装及简单Map-Reduce示例

    说明:这篇博客来自我的csdn博客,http://blog.csdn.net/lxxgreat/article/details/7753511 一.参考书:<hadoop权威指南--第二版(中文 ...

  2. hadoop 安装过程记录

    1)首先配置好了四个linux虚拟机 root pwd:z****l*3 关闭了防火墙 开通了 sshd服务 开通了 ftp服务 配置了 jdk 1.8 配置好了互信 (之前配置的过程忘了!--检查了 ...

  3. linux下expect环境安装以及简单脚本测试

    expect是交互性很强的脚本语言,可以帮助运维人员实现批量管理成千上百台服务器操作,是一款很实用的批量部署工具!expect依赖于tcl,而linux系统里一般不自带安装tcl,所以需要手动安装 下 ...

  4. 一、hadoop单节点安装测试

    一.hadoop简介 相信你或多或少都听过hadoop这个名字,hadoop是一个开源的.分布式软件平台.它主要解决了分布式存储(hdfs)和分布式计算(mapReduce)两个大数据的痛点问题,在h ...

  5. OpenCV安装配置的简单记录

    在ubuntu16.04下安装OpenCV 2.4.11的简单记录 1. 安装cmake,执行$apt-get install cmake即可,cmake -version验证 2. 下载OpenCV ...

  6. [hadoop系列]Pig的安装和简单演示样例

    inkfish原创,请勿商业性质转载,转载请注明来源(http://blog.csdn.net/inkfish ).(来源:http://blog.csdn.net/inkfish) Pig是Yaho ...

  7. kafka安装和简单测试

    kafka安装和简单测试 # 安装zookeeper(apache-zookeeper-3.5.6-bin)https://archive.apache.org/dist/zookeeper/zook ...

  8. day39——SQL语句简单介绍、库、表、记录、安装mysql简单命令

    day39 SQL语句简单介绍 库(增删改查) 查看数据库 show databases; 查看其中一个库 show create database db1; 创建数据库 create databas ...

  9. hadoop安装后运行一个单实例(测试MapReduce程序)

    1.安装hadoop 解压hadoop-1.2.1-bin.tar.gz包   tar -zxvf hadoop-1.2.1-bin.tar.gz  /opt/modules/ 解压后在/opt/mo ...

随机推荐

  1. 跟我学android-Notification

    Notification 可以理解为通知的意思,会出现在通知栏,比如来了一条短信 使用 Notification 有以下3个步骤: 1. 创建 NotificationManager的对象 2.为No ...

  2. 【转】从头到尾彻底理解KMP

    很好,讲得很清晰,值得学习. 作者:July时间:最初写于2011年12月,2014年7月21日晚10点 全部删除重写成此文,随后的半个月从早到晚不断改进. 1. 引言 本KMP原文最初写于2年多前的 ...

  3. 【转】各种字符串Hash函数比较

    常用的字符串Hash函数还有ELFHash,APHash等等,都是十分简单有效的方法.这些函数使用位运算使得每一个字符都对最后的函数值产生影响.另外还有以MD5和SHA1为代表的杂凑函数,这些函数几乎 ...

  4. Unable to locate package错误解决办法

    新装了VMWare Player,结果装上Ubuntu12.04后安装软件都提示:Unable to locate package错误,解决方法非常简单,终端输入以下命令即可: sudo apt-ge ...

  5. (转)Android Studio系列教程一下载与安装 背景Android Studio VS Eclipse准备下载创建HelloWorld项目

    背景 相信大家对Android Studio已经不陌生了,Android Studio是Google于2013 I/O大会针对Android开发推出的新的开发工具,目前很多开源项目都已经在采用,Goo ...

  6. APP如何设计才能适配iphone6/plus和iphone5

    随着苹果发布两种新尺寸的大屏iPhone 6,iOS平台尺寸适配问题终于还是来了,移动设计全面进入"杂屏"时代.看看下面三款iPhone尺寸和分辨率数据就知道屏幕有多杂了. 移动a ...

  7. PIL Image 转成 wx.Image、wx.Bitmap

    import wx from PIL import Image def ConvertToWxImage(): pilImage = Image.open('1.png') image = wx.Em ...

  8. 『Python』 爬取 WooYun 论坛所有漏洞条目的相关信息

    每个漏洞条目包含: 乌云ID,漏洞标题,漏洞所属厂商,白帽子,漏洞类型,厂商或平台给的Rank值 主要是做数据分析使用:可以分析某厂商的各类型漏洞的统计:或者对白帽子的能力进行分析..... 数据更新 ...

  9. 高效率dc升壓轉換器 應用技巧談 功率設計

    為便攜式電子設備開發電源電路要求設計工程師通過最大程度地提高功率和降低整個系統的功耗來延長電池使用壽命,這推動器件本身的尺寸變得更小,從而有益于在設計終端產品時獲得更高靈活性.這種設計的最重要元器件之 ...

  10. 7.3.1 Establishing a Backup Policy

    7.3 Example Backup and Recovery Strategy 备份和恢复策略实例 7.3.1 Establishing a Backup Policy 7.3.2 Using Ba ...