1.准备Linux环境
   1.0 点击VMware快捷方式,右键打开文件所在位置 -> 双击vmnetcfg.exe -> VMnet1 host-only ->修改subnet ip 设置网段:192.168.8.0 子网掩码:255.255.255.0 -> apply -> ok
    回到windows --> 打开网络和共享中心 -> 更改适配器设置 -> 右键VMnet1 -> 属性 -> 双击IPv4 -> 设置windows的IP:192.168.8.100 子网掩码:255.255.255.0 -> 点击确定
    在虚拟软件上 --My Computer -> 选中虚拟机 -> 右键 -> settings -> network adapter -> host only -> ok 
   1.1 修改主机名
    vim /etc/sysconfig/network
  
    NETWORKING=yes
    HOSTNAME=FTH01  
 
   1.2 修改IP
    两种方式:
    第一种:通过Linux图形界面进行修改(强烈推荐)
     进入Linux图形界面 -> 右键点击右上方的两个小电脑 -> 点击Edit connections -> 选中当前网络System eth0 -> 点击edit按钮 -> 选择IPv4 -> method选择为manual -> 点击add按钮 -> 添加                IP:192.168.8.118 子网掩码:255.255.255.0 网关:192.168.1.1 -> apply
 
    第二种:修改配置文件方式(屌丝程序猿专用)
     vim /etc/sysconfig/network-scripts/ifcfg-eth0
     
     DEVICE="eth0"
     BOOTPROTO="static"              
     HWADDR="00:0C:29:3C:BF:E7"
     IPV6INIT="yeED="yes"
     ONBOOT="yes"
     TYPE="Ethernet"
     UUID="ce22eeca-ecde-4536-8cc2-ef0dc36d4a8c"
     IPADDR="192.168.8.11"           
     NETMASK="255.255.255.0"         
     GATEWAY="192.168.8.1"        
  

  执行service network restart 命令使设置生效

   1.3 修改主机名和IP的映射关系
    vim /etc/hosts
   
    192.168.8.11 FTH01
 
   1.4 关闭防火墙
    #查看防火墙状态
    service iptables status
    #关闭防火墙
    service iptables stop
    #查看防火墙开机启动状态
    chkconfig iptables --list
    #关闭防火墙开机启动
    chkconfig iptables off
 
   1.5 重启Linux
    reboot

  注意!!!!!!
    centos的位数要与hadoop jdk的位数一致

2. 安装JDK
   2.1 上传
     通过filezilla软件上传文件,或者通过secureCRT
   2.2 解压jdk
      #创建文件夹
      mkdir /usr/java
      #解压
      tar -zxvf jdk-7u55-linux-i586.tar.gz -C /usr/java/
  
   2.3 将java添加到环境变量中
      vim /etc/profile
      #在文件最后添加
      export JAVA_HOME=/usr/java/jdk1.7.0_55
      export PATH=$PATH:$JAVA_HOME/bin
 
      #刷新配置
      source /etc/profile
  
3. 安装hadoop2.7.1

    解压hadoop安装文件到/fth/下

    tar -zxvf hadoop文件 -C /fth/
     注意:hadoop2.x的配置文件$HADOOP_HOME/etc/hadoop
     伪分布式需要修改5个配置文件 /fth/hadoop-2.7.1/conf/
   3.1 配置hadoop
      第一个:hadoop-env.sh
      vim hadoop-env.sh
      #第27行
      export JAVA_HOME=/usr/java/jdk1.7.0_65
  
     第二个:core-site.xml
      <!-- 制定HDFS的老大(NameNode)的地址 -->
      <property>
         <name>fs.defaultFS</name>
         <value>hdfs://FTH01:9000</value>
      </property>
      <!-- 指定hadoop运行时产生文件的存储目录 -->
      <property>
         <name>hadoop.tmp.dir</name>
         <value>/itcast/hadoop-2.7.1/tmp</value>
            </property>
  
   第三个:hdfs-site.xml
      <!-- 指定HDFS副本的数量 -->
      <property>
         <name>dfs.replication</name>
         <value>1</value>
           </property>
  
   第四个:mapred-site.xml (mv mapred-site.xml.template mapred-site.xml)
    mv mapred-site.xml.template mapred-site.xml
    vim mapred-site.xml
      <!-- 指定mr运行在yarn上 -->
      <property>
         <name>mapreduce.framework.name</name>
         <value>yarn</value>
          </property>
  
    第五个:yarn-site.xml
      <!-- 指定YARN的老大(ResourceManager)的地址 -->
      <property>
         <name>yarn.resourcemanager.hostname</name>
         <value>itcast01</value>
          </property>
      <!-- reducer获取数据的方式 -->
          <property>
         <name>yarn.nodemanager.aux-services</name>
         <value>mapreduce_shuffle</value>
          </property>
 
   3.2 将hadoop添加到环境变量
 
   vim /etc/proflie
    export JAVA_HOME=/usr/java/jdk1.7.0_65
    export HADOOP_HOME=/itcast/hadoop-2.7.1
    export PATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin

   source /etc/profile
  
   3.3 格式化namenode(是对namenode进行初始化)
    hdfs namenode -format (hadoop namenode -format)
  
   3.4 启动hadoop
    先启动HDFS
    sbin/start-dfs.sh
  
    再启动YARN
    sbin/start-yarn.sh
  
    3.5 验证是否启动成功
    使用jps命令验证
    27408 NameNode
    28218 Jps
    27643 SecondaryNameNode
    28066 NodeManager
    27803 ResourceManager
    27512 DataNode
 
    http://192.168.8.118:50070 (HDFS管理界面)
    http://192.168.8.118:8088 (MR管理界面)
  
4. 配置ssh免登陆
   #生成ssh免登陆密钥
   #进入到我的home目录
   cd ~/.ssh

  ssh-keygen -t rsa (四个回车)
   执行完这个命令后,会生成两个文件id_rsa(私钥)、id_rsa.pub(公钥)
   将公钥拷贝到要免登陆的机器上  cp id_rsa.pub authorized_keys
   ssh-copy-id localhost
   例如 ssh-copy-id 192.168.8.99     将192.168.8.88的公钥拷给192.168.8.99  以后就可以不用输入密码,直接连上192.168.8.99

5. 错误信息

  查看linux系统的位数  uname -a

  1.  Q:Java HotSpot(TM) ClientVM warning: You have loaded library/usr/local/hadoop2.5/lib/native/libhadoop.so.1.0.0which might have disabled stack guard. The VM will try to   fix the stack guardnow.

  A:这个问题的错误原因会发生在64位的操作系统上,原因是从官方下载的hadoop使用的本地库文件都是基于32位编译的,运行在64位系统上就会出现上述错误。

  方案一:在64位系统上重新编译hadoop;

   方案二:在hadoop-env.sh,yarn-env.sh中添加下两行:

  export HADOOP_COMMON_LIB_NATIVE_DIR=${HADOOP_HOME}/lib/native

   export  HADOOP_OPTS="-Djava.library.path=$HADOOP_HOME/lib"

hadoop-2.7.1伪分布环境搭建的更多相关文章

  1. Hadoop之伪分布环境搭建

    搭建伪分布环境 上传hadoop2.7.0编译后的包并解压到/zzy目录下 mkdir /zzy 解压 tar -zxvf hadoop.2.7.0.tar.gz -C /zzy     配置hado ...

  2. hbase 单机+伪分布环境搭建学习-1

    1.单机模式: (1)编辑hbase-env.sh user@EBJ1023.local:/usr/local/flume_kafka_stom/hbase_1.1.2> vim conf/hb ...

  3. 启动原生Hadoop集群或伪分布环境

    一:启动Hadoop 集群或伪分布安装成功之后,通过执行./sbin/start-all.sh启动Hadoop环境 通过jps命令查看当前启动进程是否正确~ [root@neusoft-master ...

  4. Hadoop.2.x_伪分布环境搭建

    一. 基本环境搭建 1. 设置主机名.静态IP/DNS.主机映射.windows主机映射(方便ssh访问与IP修改)等 设置主机名: vi /etc/sysconfig/network # 重启系统生 ...

  5. Hadoop2.6.0伪分布环境搭建

    用到的软件: 一.安装jdk: 1.要安装的jdk,我把它拷在了共享文件夹里面.   (用优盘拷也可以) 2.我把jdk拷在了用户文件夹下面. (其他地方也可以,不过路径要相应改变) 3.执行复制安装 ...

  6. Hadoop分布环境搭建步骤,及自带MapReduce单词计数程序实现

    Hadoop分布环境搭建步骤: 1.软硬件环境 CentOS 7.2 64 位 JDK- 1.8 Hadoo p- 2.7.4 2.安装SSH sudo yum install openssh-cli ...

  7. Hadoop学习笔记1:伪分布式环境搭建

    在搭建Hadoop环境之前,请先阅读如下博文,把搭建Hadoop环境之前的准备工作做好,博文如下: 1.CentOS 6.7下安装JDK , 地址: http://blog.csdn.net/yule ...

  8. 【Hadoop】伪分布式环境搭建、验证

    Hadoop伪分布式环境搭建: 自动部署脚本: #!/bin/bash set -eux export APP_PATH=/opt/applications export APP_NAME=Ares ...

  9. 大数据:Hadoop(JDK安装、HDFS伪分布式环境搭建、HDFS 的shell操作)

    所有的内容都来源与 Hadoop 官方文档 一.Hadoop 伪分布式安装步骤 1)JDK安装 解压:tar -zxvf jdk-7u79-linux-x64.tar.gz -C ~/app 添加到系 ...

随机推荐

  1. AngularJs之五

    一:angularJs的事件. 1.ng-click指令定义了AngularJS点击事件. <div ng-app="myapp" ng-controller="m ...

  2. [原创]关于ORACLE的使用入门

    Oracle===============================数据库:Oracle------>甲骨文(Oracle) 49+%DB2---------->IBM 49+%Sq ...

  3. Event事件

    妙味课堂-Event事件 1.焦点:当一个元素有焦点的时候,那么他就可以接受用户的输入(不是所有元素都能接受焦点) 给元素设置焦点的方式: 1.点击 2.tab 3.js 2.(例子:输入框提示文字) ...

  4. Federated Identity Pattern 联合身份模式

    Delegate authentication to an external identity provider. This pattern can simplify development, min ...

  5. 利用Python进行数据分析 基础系列随笔汇总

    一共 15 篇随笔,主要是为了记录数据分析过程中的一些小 demo,分享给其他需要的网友,更为了方便以后自己查看,15 篇随笔,每篇内容基本都是以一句说明加一段代码的方式, 保持简单小巧,看起来也清晰 ...

  6. 基于trie树做一个ac自动机

    基于trie树做一个ac自动机 #!/usr/bin/python # -*- coding: utf-8 -*- class Node: def __init__(self): self.value ...

  7. [Winform] DataGridView 总结(FAQ)

    Q1.  如何使单元格不可编辑? A:设置 ReadOnly 属性,可以设置的对象包括 DataGridViewRow(行).DataGridViewColumn(列).DataGridViewCel ...

  8. DotNet 资源大全

    awesome-dotnet 是由 quozd 发起和维护.内容包括:编译器.压缩.应用框架.应用模板.加密.数据库.反编译.IDE.日志.风格指南等. https://github.com/jobb ...

  9. C#开发微信门户及应用(36)--微信卡劵管理的封装操作

    前面几篇介绍了微信支付方面的内容,本篇继续微信接口的一些其他方面的内容:卡劵管理.卡劵管理是微信接口里面非常复杂的一个部分,里面的接口非常多,我花了不少时间对它进行了封装处理,重构优化等等工作,卡劵在 ...

  10. 【C#公共帮助类】WinRarHelper帮助类,实现文件或文件夹压缩和解压,实战干货

    关于本文档的说明 本文档使用WinRAR方式来进行简单的压缩和解压动作,纯干货,实际项目这种压缩方式用的少一点,一般我会使用第三方的压缩dll来实现,就如同我上一个压缩类博客,压缩的是zip文件htt ...