hadoop2.6.4安装包(链接:https://pan.baidu.com/s/15qHpdoLBQHP4HdxOJzNcsg 密码:5hel)

1.准备Linux环境

1.0先将虚拟机的网络模式选为NA

1.1修改主机名

vi /etc/sysconfig/network
        
         NETWORKING=yes
         HOSTNAME=mini1    ###

1.2修改IP

两种方式:
         第一种:通过Linux图形界面进行修改(强烈推荐)
             进入Linux图形界面 -> 右键点击右上方的两个小电脑 -> 点击Edit connections -> 选中当前网络System eth0 -> 点击edit按钮 -> 选择IPv4 -> method选择为manual -> 点击add按钮 -> 添加IP:192.168.1.101 子网掩码:255.255.255.0 网关:192.168.1.1 -> apply
    
         第二种:修改配置文件方式(屌丝程序猿专用)
             vim /etc/sysconfig/network-scripts/ifcfg-eth0
            
             DEVICE="eth0"
             BOOTPROTO="static"               ###
             HWADDR="00:0C:29:3C:BF:E7"
             IPV6INIT="yes"
             NM_CONTROLLED="yes"
             ONBOOT="yes"
             TYPE="Ethernet"
             UUID="ce22eeca-ecde-4536-8cc2-ef0dc36d4a8c"
             IPADDR="192.168.1.101"           ###
             NETMASK="255.255.255.0"          ###
             GATEWAY="192.168.1.1"            ###

1.3修改主机名和IP的映射关系

vim /etc/hosts
            
         192.168.33.61    mini1

1.4关闭防火墙

#查看防火墙状态
         service iptables status
         #关闭防火墙
         service iptables stop
         #查看防火墙开机启动状态
         chkconfig iptables --list
         #关闭防火墙开机启动
         chkconfig iptables off

1.5 修改sudo

su root
         vim /etc/sudoers
         给hadoop用户添加执行的权限

关闭linux服务器的图形界面:

vi /etc/inittab

1.5重启Linux
         reboot

2.安装JDK

2.1上传alt+p 后出现sftp窗口,然后put d:\xxx\yy\ll\jdk-7u_65-i585.tar.gz

2.2解压jdk

#创建文件夹
         mkdir /home/hadoop/app
         #解压
         tar -zxvf jdk-7u55-linux-i586.tar.gz -C /home/hadoop/app

2.3将java添加到环境变量中

vim /etc/profile
         #在文件最后添加
         export JAVA_HOME=/home/hadoop/app/jdk-7u_65-i585
         export PATH=$PATH:$JAVA_HOME/bin
    
         #刷新配置
         source /etc/profile

3.安装hadoop2.6.4

先上传hadoop的安装包到服务器上去/home/hadoop/
     注意:hadoop2.x的配置文件$HADOOP_HOME/etc/hadoop
     分布式需要修改5个配置文件

3.1配置hadoop

第一个:hadoop-env.sh
         vim hadoop-env.sh
         #第27行
         export JAVA_HOME=/usr/java/jdk1.7.0_65
        
     第二个:core-site.xml

<!-- 指定HADOOP所使用的文件系统schema(URI),HDFS的老大(NameNode)的地址 -->
         <property>
             <name>fs.defaultFS</name>
             <value>hdfs://mini1:9000</value>
         </property>
         <!-- 指定hadoop运行时产生文件的存储目录 -->
         <property>
             <name>hadoop.tmp.dir</name>
             <value>/home/hadoop/hadoop-2.6.4/tmp</value>
     </property>
        
     第三个:hdfs-site.xml  
         <!-- 指定HDFS副本的数量 -->
         <property>
             <name>dfs.replication</name>
             <value>1</value>
         </property>
        
         <property>
             <name>dfs.secondary.http.address</name>
             <value>192.168.33.61:50090</value>
         </property>

第四个:mapred-site.xml (mv mapred-site.xml.template mapred-site.xml)
         mv mapred-site.xml.template mapred-site.xml
         vim mapred-site.xml
         <!-- 指定mr运行在yarn上 -->
         <property>
             <name>mapreduce.framework.name</name>
             <value>yarn</value>
         </property>
        
     第五个:yarn-site.xml
         <!-- 指定YARN的老大(ResourceManager)的地址 -->
         <property>
             <name>yarn.resourcemanager.hostname</name>
             <value>mini1</value>
         </property>
         <!-- reducer获取数据的方式 -->
         <property>
             <name>yarn.nodemanager.aux-services</name>
             <value>mapreduce_shuffle</value>
         </property>

3.2将hadoop添加到环境变量

vim /etc/proflie
         export JAVA_HOME=/usr/java/jdk1.7.0_65
         export HADOOP_HOME=/itcast/hadoop-2.6.4
         export PATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin

source /etc/profile

3.3配置 slave

[hadoop@Master1 hadoop]$ vi slaves
         mini2
         mini4
        

(集群中的其他机器同理开始以上所有操作,可以使用scp命令直接发送文件夹简化操作)

3.4格式化namenode(是对namenode进行初始化)

hdfs namenode -format (hadoop namenode -format)

3.5启动hadoop

先启动HDFS
         sbin/start-dfs.sh
        
         再启动YARN
         sbin/start-yarn.sh

3.6验证是否启动成功

使用jps命令验证
         27408 NameNode
         28218 Jps
         27643 SecondaryNameNode
         28066 NodeManager
         27803 ResourceManager
         27512 DataNode
    
         http://192.168.33.61:50070 (HDFS管理界面)
         http://192.168.33.61:8088 (MR管理界面)

4.配置ssh免登陆

#生成ssh免登陆密钥
     #进入到我的home目录
     cd ~/.ssh

ssh-keygen -t rsa (四个回车)
     执行完这个命令后,会生成两个文件id_rsa(私钥)、id_rsa.pub(公钥)
     将公钥拷贝到要免密登陆的目标机器上
     ssh-copy-id localhost
     ---------------------------
     ssh免登陆:
         生成key:
         ssh-keygen
         复制从A复制到B上:
         ssh-copy-id B
         验证:
         ssh localhost/exit,ps -e|grep ssh
         ssh A  #在B中执行

CentOS 6 安装Hadoop集群的更多相关文章

  1. CentOS 7安装Hadoop集群

    准备三台虚拟机,ip分别为192.168.220.10(master).192.168.220.11(slave1).192.168.220.12(slave2) 准备好jdk-6u45-linux- ...

  2. docker安装hadoop集群

    docker安装hadoop集群?图啥呢?不图啥,就是图好玩.本篇博客主要是来教大家如何搭建一个docker的hadoop集群.不要问 为什么我要做这么无聊的事情,答案你也许知道,因为没有女票.... ...

  3. CentOS7 搭建Ambari-Server,安装Hadoop集群(一)

    2017-07-05:修正几处拼写错误,之前没发现,抱歉! 第一次在cnblogs上发表文章,效果肯定不会好,希望各位多包涵. 编写这个文档的背景是月中的时候,部门老大希望我们能够抽时间学习一下Had ...

  4. 在CentOS上安装ZooKeeper集群

    一共准备3个CentOS虚拟机 172.16.9.194 172.16.9.195 172.16.9.196 上传zookeeper-3.3.6.tar.gz到服务器并解压,3台服务器的目录结构如下 ...

  5. 安装Hadoop集群的最快的软件

    Quick Hadoop是一款安装Hadoop集群的桌面软件,只需要点两下鼠标,一分钟之内安装Hadoop到集群上,超快! 还在每台主机的Shell里一行一行地敲安装Hadoop的命令?别苦逼了! 用 ...

  6. 通过ambari安装hadoop集群,ZT

    通过ambari安装hadoop集群,ZT http://www.cnblogs.com/cenyuhai/p/3295635.html http://www.cnblogs.com/cenyuhai ...

  7. Linux上安装Hadoop集群(CentOS7+hadoop-2.8.0)--------hadoop环境的搭建

    Linux上安装Hadoop集群(CentOS7+hadoop-2.8.0)------https://blog.csdn.net/pucao_cug/article/details/71698903 ...

  8. 安装hadoop集群--hdfs

    安装hadoop集群--hdfs 大数据软件 链接:https://pan.baidu.com/s/1-3PYLHMgvvONawJq55hstQ 提取码:izqf 准备一台干净的虚拟机-centos ...

  9. 图文讲解基于centos虚拟机的Hadoop集群安装,并且使用Mahout实现贝叶斯分类实例 (7)

    接下来,我们开启hadoop集群. 如果之前打开过Hadoop,可能会发生lock的问题,解决方案:http://blog.csdn.net/caoshichaocaoshichao/article/ ...

随机推荐

  1. iOS开发 runtime实现原理以及实际开发中的应用

    自己写了一个小例子:有一些相关知识点和博客文章 A: 首先现在控制器里面初始化一个对象,然后调用对象的方法: #import "ViewController.h" #import  ...

  2. 19_Android中图片处理原理篇,关于人脸识别网站,图片加载到内存,图片缩放,图片翻转倒置,网上撕衣服游戏案例编写

    1加载图片到内存 (1).数码相机照片特别是大于3m以上的,内存吃不消,会报OutOfMemoryError,若是想只显示原图片的1/8,可以通过BitmapFactory.Options来实现,具体 ...

  3. JAVA之旅(三)——数组,堆栈内存结构,静态初始化,遍历,最值,选择/冒泡排序,二维数组,面向对象思想

    JAVA之旅(三)--数组,堆栈内存结构,静态初始化,遍历,最值,选择/冒泡排序,二维数组,面向对象思想 我们继续JAVA之旅 一.数组 1.概念 数组就是同一种类型数据的集合,就是一个容器 数组的好 ...

  4. 分别修改Cube每个面的贴图UV(Unity3D开发之十八)

    猴子原创,欢迎转载.转载请注明: 转载自Cocos2Der-CSDN,谢谢! 原文地址: http://blog.csdn.net/cocos2der/article/details/46611169 ...

  5. How to configure ODBC DSN in Client to access remote DB2 for Windows

      How to configure ODBC DSN in Client to access remote DB2 for Windows MA Gen feng (Guangdong Unito ...

  6. ruby中printf "%x"%-4为何会打印开头..

    先看一下ruby中printf "%x" % -4的返回结果: irb(main):134:0> printf "%x\n" % -4 ..fc 前面的. ...

  7. 四种生成和解析XML文档的方法详解

    众所周知,现在解析XML的方法越来越多,但主流的方法也就四种,即:DOM.SAX.JDOM和DOM4J 下面首先给出这四种方法的jar包下载地址 DOM:在现在的Java JDK里都自带了,在xml- ...

  8. JQuery常用功能的性能优化

    使用最佳选择器 通常比较常用的选择器有以下几个: 1.ID选择器 $("#id") 2.标签选择器 $("td") 3.类选择器 $(".target ...

  9. String内存分配

    Java 把内存划分成两种:一种是栈内存,另一种是堆内存.在函数中定义的一些基本类型的变量和对象的引用变量都是在函数的 栈内存中分配,当在一段代码块定义一个变量时,Java 就在栈中为这个变量分配内存 ...

  10. 设计模式基础:类及类关系的UML表示

    设计模式基础:类及类关系的UML表示 2009-10-26 17:00 by 宗哥, 1891 阅读, 1 评论, 收藏, 编辑 UML中,类关系分为这几种,泛化(generalization), 实 ...