一、JDK1.8的安装

  1. 添加ppa

    sudo add-apt-repository ppa:webupd8team/java
    sudo apt-get update  
  2. 安装Oracle-java-installer

    sudo apt-get install oracle-java8-installer  
    这条语句可以默认确认条款:echo oracle-java8-installer shared/accepted-oracle-license-v1-1 select true | sudo /usr/bin/debconf-set-selec
  3. 设置系统默认jdk

    jdk7 切换到jdk8
    sudo update-java-alternatives -s java--oracle
  4. 测试jdk 是是否安装成功:
    java -version
    javac -version
  5. 若选择下载安装包安装
    下载:
    wget http://download.oracle.com/otn-pub/java/jdk/8u151-b12/e758a0de34e24606bca991d704f6dcbf/jdk-8u151-linux-x64.tar.gz 创建目录:
    sudo mkdir /usr/lib/jvm 解压缩至目标目录:
    sudo tar -zxvfjdk-8u151-linux-x64.tar.gz -C /usr/lib/jvm 修改环境变量:
    sudo vim ~/.bashrc
    文件的末尾追加下面内容: #set oracle jdk environment
    export JAVA_HOME=/usr/lib/jvm/jdk1..0_151 ## 这里要注意目录要换成自己解压的jdk 目录
    export JRE_HOME=${JAVA_HOME}/jre
    export CLASSPATH=.:${JAVA_HOME}/lib:${JRE_HOME}/lib
    export PATH=${JAVA_HOME}/bin:$PATH
    使环境变量马上生效
    source ~/.bashrc 设置系统默认jdk 版本
    sudo update-alternatives --install /usr/bin/java java /usr/lib/jvm/jdk1..0_151/bin/java
    sudo update-alternatives --install /usr/bin/javac javac /usr/lib/jvm/jdk1..0_151/bin/javac
    sudo update-alternatives --install /usr/bin/jar jar /usr/lib/jvm/jdk1..0_151/bin/jar
    sudo update-alternatives --install /usr/bin/javah javah /usr/lib/jvm/jdk1..0_151/bin/javah
    sudo update-alternatives --install /usr/bin/javap javap /usr/lib/jvm/jdk1..0_151/bin/javap sudo update-alternatives --config java java -version

二、下载安装配置Hadoop3.0

  1. 下载Hadoop wget http://mirror.bit.edu.cn/apache/hadoop/common/hadoop-3.0.0/hadoop-3.0.0.tar.gz
  2. 解压缩至/usr/local/hadoop3
    1. 配置环境变量

      vi /etc/profile
      末尾添加
      #Hadoop 3.0
      export HADOOP_HOME=/usr/local/hadoop3
      export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin export HADOOP_COMMON_HOME=$HADOOP_HOME
      export HADOOP_HDFS_HOME=$HADOOP_HOME
      export HADOOP_MAPRED_HOME=$HADOOP_HOME
      export HADOOP_YARN_HOME=$HADOOP_HOME export HADOOP_INSTALL=$HADOOP_HOME
      export HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_HOME/lib/native
      export HADOOP_CONF_DIR=$HADOOP_HOME
      export HADOOP_PREFIX=$HADOOP_HOME
      export HADOOP_LIBEXEC_DIR=$HADOOP_HOME/libexec
      export JAVA_LIBRARY_PATH=$HADOOP_HOME/lib/native:$JAVA_LIBRARY_PATH
      export HADOOP_CONF_DIR=$HADOOP_PREFIX/etc/hadoop

        

      export HDFS_DATANODE_USER=root
        export HDFS_DATANODE_SECURE_USER=root
        export HDFS_SECONDARYNAMENODE_USER=root
        export HDFS_NAMENODE_USER=root

      
      

      source /etc/profile

  3. 配置文件
    修改/usr/local/hadoop3/etc/hadoop/core-site.xml,配置hdfs端口和地址,临时文件存放地址
    <configuration>
    <property>
    <name>fs.default.name</name>
    <value>hdfs://ha01:9000</value>
    </property>
    <property>
    <name>hadoop.tmp.dir</name>
    <value>/home/hadoop3/hadoop/tmp</value>
    </configuration>
    #hdfs://ha01:9000 中ha01是主机名,下面是永久修改hostname的方法
    1.修改network文件# vi /etc/sysconfig/network 
    NETWORKING=yes 
    HOSTNAME=ha01 //在这修改hostname 
    NISDOMAIN=eng-cn.platform.com  2.修改/etc/hosts里面的名字 
    # vi /etc/hosts 
    127.0.0.1 localhost.localdomain localhost 
    172.17.33.169 ha01 //在这修改hostname 
    修改hdfs-site.xml 配置副本个数以及数据存放的路径
    <configuration>
    <property>
    <name>dfs.replication</name>
    <value></value>
    </property>
    <property>
    <name>dfs.namenode.name.dir</name>
    <value>/home/hadoop3/hadoop/hdfs/name</value>
    </property>
    <property>
    <name>dfs.namenode.data.dir</name>
    <value>/home/hadoop3/hadoop/hdfs/data</value>
    </property>
    </configuration>
    修改mapred-site.xml,配置使用yarn框架执行mapreduce处理程序,与之前版本多了后面两部
    不配置mapreduce.application.classpath这个参数mapreduce运行时会报错:
    Error: Could not find or load main class org.apache.hadoop.mapreduce.v2.app.MRAppMaster <configuration>
    <property>
    <name>mapreduce.framework.name</name>
    <value>yarn</value>
    </property>
    <property>
    <name>mapreduce.application.classpath</name>
    <value>
    /usr/local/hadoop3/etc/hadoop,
    /usr/local/hadoop3/share/hadoop/common/*,
    /usr/local/hadoop3/share/hadoop/common/lib/*,
    /usr/local/hadoop3/share/hadoop/hdfs/*,
    /usr/local/hadoop3/share/hadoop/hdfs/lib/*,
    /usr/local/hadoop3/share/hadoop/mapreduce/*,
    /usr/local/hadoop3/share/hadoop/mapreduce/lib/*,
    /usr/local/hadoop3/share/hadoop/yarn/*,
    /usr/local/hadoop3/share/hadoop/yarn/lib/*
    </value>
    </property>
    </configuration>
    修改yar-site.xml
    
    <configuration>
    
    <!-- Site specific YARN configuration properties -->
    <property>
    <name>yarn.resourcemanager.hostname</name>
    <value>ha01</value>
    </property>
    <property>
    <name>yarn.nodemanager.aux-services</name>
    <value>mapreduce_shuffle</value>
    </property>
    </configuration>
    workers文件里添加主机名
    ha02
    ha03
  4. Hadoop设置完成,现在实现分布式
    通过克隆linux或者复制hadoop文件夹的方式构建其它节点
    
    scp -r /usr/local/hadoop3 root@ha02:/usr/local
    scp -r /usr/local/hadoop3 root@ha03:/usr/local 复制时候ha02无法解析,此时需要我们在系统hosts文件中声明
    192.168.160.101 ha01
    192.168.160.102 ha02
    192.168.160.103 ha03
  5. hadoop节点需要设置免密码登录。
    ssh-keygen -t rsa  //生成密钥id-rsa、公钥id-rsa.pub
    将公钥的内容复制到需要ssh免密码登陆的机器的~/.ssh/authorized_keys文件中。 例如:A机器中生成密钥及公钥,然后将公钥内容复制到B机器的authorized_keys文件中,这样变实现了A免密码ssh登陆B。

    一.SSH免密登录

    1.1、检查是否可以免密匙登录

    [root@master ~]# ssh localhost
    The authenticity of host 'localhost (::1)' can't be established. 

    1.2CentOS默认没有启动ssh无密登录,去掉/etc/ssh/sshd_config其中2行的注释,每台服务器都要设置,

    #RSAAuthentication yes
    #PubkeyAuthentication yes

    1.3生成密钥
    输入命令 ssh-keygen -t rsa  然后一路回车即可
    1.4复制到公共密钥中
    cp /root/.ssh/id_rsa.pub /root/.ssh/authorized_keys
    1.5再次登录,即可免密匙
    [root@master ~]# ssh localhost
    Last login: Thu Oct 20 15:47:22 2016 from 192.168.0.100

      

学习 Hadoop3.0 一、Hadoop3.0的安装与配置的更多相关文章

  1. redis3.0.5在linux上安装与配置

    redis3.0.5在linux上安装与配置 rhel6/ubuntu14 1 下载 # wget http://download.redis.io/releases/redis-3.0.5.tar. ...

  2. solr5.5.0在CenOS上的安装与配置

    solr5.5.0在CenOS上的安装与配置 1. Solr简介 Solr是一个基于Lucene的Java搜索引擎服务器.Solr 提供了层面搜索.命中醒目显示并且支持多种输出格式(包括 XML/XS ...

  3. hadoop: hive 1.2.0 在mac机上的安装与配置

    环境:mac OS X Yosemite + hadoop 2.6.0 + hive 1.2.0 + jdk 1.7.0_79 前提:hadoop必须先安装,且处于运行状态(伪分式模式或全分布模式均可 ...

  4. redis3.0 集群实战1 -- 安装和配置

    本文主要是在centos7上安装和配置redis集群实战 参考: http://hot66hot.iteye.com/blog/2050676 集群教程: http://redisdoc.com/to ...

  5. WIN10 64bit + QT5.10.0(MinGW3.5.0) + OpenCV3.4.1 无痛安装、配置

    安装QT和配置MinGW 官方下载qt-opensource-windows-x86-5.10.0.exe 正常步骤安装QT5.10.0,安装过程选择自带的MinGW3.5.0编译器即可. 打开QtC ...

  6. 烂泥:学习Nagios(三): NRPE安装及配置

    本文由秀依林枫提供友情赞助,首发于烂泥行天下 在前两篇文章中,我们介绍了有关nagios的安装与配置,文章为<烂泥:学习Nagios(一):Nagios安装>.<烂泥:学习Nagio ...

  7. Solr学习总结(二)Solr的安装与配置

    接着前一篇,这里总结下Solr的安装与配置 1.准备 1.安装Java8 和 Tomcat9 ,java和tomcat 的安装这里不再重复.需要注意的是这两个的版本兼容问题.貌似java8 不支持,t ...

  8. 一脸懵逼学习基于CentOs的Hadoop集群安装与配置

    1:Hadoop分布式计算平台是由Apache软件基金会开发的一个开源分布式计算平台.以Hadoop分布式文件系统(HDFS)和MapReduce(Google MapReduce的开源实现)为核心的 ...

  9. 一脸懵逼学习基于CentOs的Hadoop集群安装与配置(三台机器跑集群)

    1:Hadoop分布式计算平台是由Apache软件基金会开发的一个开源分布式计算平台.以Hadoop分布式文件系统(HDFS)和MapReduce(Google MapReduce的开源实现)为核心的 ...

  10. 基于深度学习的人脸识别系统Win10 环境安装与配置(python+opencv+tensorflow)

    一.需要下载的软件.环境及文件 (由于之前见识短浅,对Anaconda这个工具不了解,所以需要对安装过程做出改变:就是Python3.7.2的下载安装是可选的,因为Anaconda已经为我们解决Pyt ...

随机推荐

  1. 『TensorFlow』函数查询列表_张量属性调整

    数据类型转换Casting 操作 描述 tf.string_to_number(string_tensor, out_type=None, name=None) 字符串转为数字 tf.to_doubl ...

  2. AngularJS +Kendo UI Grid template

    var dataSource = new kendo.data.DataSource({ transport: { dataType: "json", read: inputUri ...

  3. iOS应该具备知识点

    序言 我相信很多人都在说,iOS行业不好了,iOS现在行情越来越难了,失业的人比找工作的人还要多.失业即相当于转行,跳槽即相当于降低自己的身价.那么做iOS开发的你,你是否在时刻准备着跳槽或者转行了. ...

  4. C++ 多目录多文件编译 技巧

    http://www.cplusplus.com/forum/articles/10627/ 1.hpp文件 hpp文件可以使用template函数和class静态函数(不含静态成员) a)不可包含全 ...

  5. 并发,同步锁,Runnable,Callable,Future

    1.并发: 在我们的操作系统中,同一个时间点,有N个线程都想访问同一个程序!但是cpu只能运行一个! 这种情况就是! 多个线程在 同一个时间点 访问同一个资源,会引发线程不安全的问题! 怎么解决这种不 ...

  6. python基础提高演练(名片管理系统的开发)

    综合应用 —— 名片管理系统 目标 综合应用已经学习过的知识点: 变量 流程控制 函数 模块 开发 名片管理系统 系统需求 1. 程序启动,显示名片管理系统欢迎界面,并显示功能菜单 ********* ...

  7. Mysql5.7实现主从复制、基于GTID的主从复制、并行复制

    (一.主从复制) 一.mysql主从复制原理    mysql的默认复制方式是主从复制.Mysql内建的复制功能是构建大型,高性能应用程序的基础.将Mysql的数据分布到多个系统上去,这种分布的机制, ...

  8. Cordova使用极光推送的方法

    1.在极光推送官网注册账号.应用,注意注册的包名要和app的包名一致 2.添加插件 cordova plugin add jpush-phonegap-plugin --variable APP_KE ...

  9. dom4j操作xml的demo

    package com.cn.shop.util; import java.io.File;import java.io.FileOutputStream;import java.io.OutputS ...

  10. C#中字符串大小比较函数--CompareTo与Compare方法(需要完善补充)

    字符串比较的原理是什么? 原理: 从两个字符串的第一个字符开始逐个进行比较(按字符的ASCII值进行大小比较),直到出现不同的字符或遇到‘\0’为止. 如果全部字符都相同,就认为两字符串相等,返回0: ...