环境:ubuntu13

使用的用户为普通用户。如:用户ru

jdk安装略

1、安装ssh

(1)

  1. sudo apt-get install openssh-server

(2)配置ssh面密码登录

  1. $ ssh-keygen -t dsa -P '' -f ~/.ssh/id_dsa
  2. $ cat ~/.ssh/id_dsa.pub >> ~/.ssh/authorized_keys

2、下载安装Hadoop

(1)下载hadoop-1.2.1-bin.tar.gz

(2)修改权限

如果拥有者不是root,使用

  1. chown root hadoop-1.2.1-bin.tar.gz

(3)解压

root用户下

  1. tar -zxvf hadoop-1.2.1-bin.tar.gz

(4)将解压后的hadoop拷贝到安装目录

3、配置hadoop

配置文件在$HADOOP_HOME/conf下

(1)配置hadoop-env.sh,指定jdk的安装路径

  1. 添加jdk路径
  2. export JAVA_HOME=/root/jdk1.8.0_131
  3. export HADOOP_HOME=/root/hadoop-1.2.1
  4. export PATH=.:$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin
  5. export CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar

(2)修改hadoop的核心配置文件core-site.xml,配置namenode的地址和端口

  1. <configuration>
  2. <property>
  3. <name>fs.default.name</name>
  4. <value>hdfs://localhost:9000</value>
  5. </property>
  6. </configuration>
  1. 这个还是很必要的,如果不配置临时目录,格式化hdfs是会在/tem目录下创建临时目录但是tmp目录重启系统会清楚下面文件。这样namenode就启动不起来了
  2. <property>
  3. <name>hadoop.tmp.dir</name>
  4. <value>/home/ruge/hadoop/hadooptmpdir</value>
  5. <description>A base for other temporary directories.</description>
  6. </property>

(3)修改hadoop的hdfs-site.xml,配置replication,即数据保存份数

  1. <property>
  2. <name>dfs.replication</name>
  3. <value>1</value>
  4. </property>

(4)修改hadoop的mapred-site.xml,配置jobtracker的地址和端口

  1. <property>
  2. <name>mapred.job.tracker</name>
  3. <value>localhost:9001</value>
  4. </property>

注:涉及到IP的地方如果是完全分布式集群,需要改成具体的IP

4、格式化hadoop的文件系统HDFS

  1. bin/hadoop namenode -format

5、启动hadoop

  1. bin/start-all.sh

6、验证hadoop是否启动成功

7、使用wordcount计算单词数

  1. (1)新建hdfs目录,不是实际的系统文件目录,只能使用hadoop dfs -ls /XXX查看
  2. hadoop dfs -mkdir /input
  3. (2)将文件复制到新建的hdfs目录
  4. hadoop dfs -put ./*.sh /input/
  5. (3)使用hadoop的wordcount计算单词数
  6. hadoop jar hadoop-examples-1.2.1.jar wordcount /input /output
  7. 注:input 和 output都是hdfs文件目录。不同的是input是需要分析的目录,outpu是存放结果的目录,且自动生成,不能手动创建

第二部分,安装hadoop集群:

1,准备2个服务器,分别为

机器名IP地址作用

hadoop.main192.168.1.102NameNode,JobTracker,DataNode,TaskTracker

hadoop.slave192.168.1.107DataNode,TaskTracker

注:2台主机必须使用相同的用户名运行hadoop

2,分别在这两个主机上,按照单机版的安装方法,安装hadoop

3,在/etc/hostname中修改主机名

在/etc/hosts中配置主机名和IP地址度对应关系

分别在2台主机中,运行以下命令:

ping hadoop.main

ping hadoop.slave

修改/etc/hosts添加master和slave的ip和主机名

4,将hadoop.main节点中的~/.ssh/id_rsa.pub文件拷贝到hadoop.slave节点的~/.ssh目录下,然后在hadoop.slave的~/.ssh/目录下运行:

cat ./id_rsa.pub >> authorized_keys

在hadoop.main节点中运行命令: ssh hadoop.slave

5, 修改2台主机的core-site.xml,配置HDFS的地址和端口号

vi conf/core-site.xml

<configuration>

<property>

<name>fs.default.name</name>

<value>hdfs://hadoop.main:9000</value>

</property>

</configuration>

6,修改2台主机的MapReduce的配置文件,配置的是JobTracker的地址和端口

vi conf/mapred-site.xml

<configuration>

<property>

<name>mapred.job.tracker</name>

<value>hadoop.main:9001</value>

</property>

</configuration>

7,修改2台主机中的hadoop配置文件masters

hadoop.main

8,修改2台主机中的hadoop配置文件slaves

hadoop.main

hadoop.slave

9,在haddop.main节点运行

bin/hadoop namenode -format

10,启动hadoop

bin/start-all.sh

ps: datanode time configuration

<property>

<name>heartbeat.recheck.interval</name>

<value>15</value>

</property>

参考:

http://blog.csdn.net/hxpjava1/article/details/20214049

http://www.linuxidc.com/Linux/2014-07/104312.htm

(转) Hadoop1.2.1安装的更多相关文章

  1. (一)Hadoop1.2.1安装——单节点方式和单机伪分布方式

    Hadoop1.2.1安装——单节点方式和单机伪分布方式 一.   需求部分 在Linux上安装Hadoop之前,需要先安装两个程序: 1)JDK 1.6(或更高版本).Hadoop是用Java编写的 ...

  2. hadoop1.1.2安装过程

    实验环境:VMware 10.0.1+CentOS-6.6-i386 +jdk-6u24-linux-i586+hadoop-1.1.2.tar.gz 普通用户:michael 集群规划:1台mast ...

  3. hadoop-1.2.1安装配置

    1.准备三台节点 hnd1  hnd2  hnd3 下载 hadoop 下载地址:http://apache.fayea.com/hadoop/common/ API文档:http://hadoop. ...

  4. Hadoop-1.2.1 安装步骤小结(ubuntu)

    1.安装ubuntu系统 如果不使用云服务器,可以使用虚拟机WmWare安装,具体安装步骤这里就不讲了,ubuntu系统下载地址:http://www.ubuntu.com/download/desk ...

  5. Hadoop1.0.3安装部署

    0x00 大数据平台相关链接 官网:http://hadoop.apache.org/ 主要参考教程:http://www.cnblogs.com/xia520pi/archive/2012/05/1 ...

  6. 虚拟机下hadoop1.1.2安装(单机版)与(集群版)

    (1)我的电脑环境 CentOS6.5,64位,在虚拟机下实现. (2)jdk1.6的安装 jdk我用的是1.6.0_27,自己在网上下载jdk-6u27-linux-x64.zip 先在/usr/l ...

  7. centOS6.5 Hadoop1.0.4安装

    前段时间去培训,按照教程装了一遍Hadoop.回来又重新装一次,捋下思路,加深理解. 基本配置如下,三个节点,一个namenode,两个datanode. Namenode 192.168.59.14 ...

  8. hadoop1.2.1安装配置

    原文地址 环境:ubuntu13 使用的用户为普通用户.如:用户ru jdk安装略 1.安装ssh (1) sudo apt-get install openssh-server (2)配置ssh面密 ...

  9. hadoop-1.2.0安装记录

    一.添加用户(各机器均一致)     添加组: sudo addgroup hadoop     添加用户并到组:sudo adduser -ingroup hadoop hadoop 二.ssh无验 ...

随机推荐

  1. appium简明教程(10)——控件定位基础

    狭义上讲,UI级的自动化测试就是让机器代替人去点来点去的过程. 但机器去点什么(点上面还是点左边),怎么点(是长按还是轻触),这些东西是必须由代码的编写者所指示清楚的. 控件定位就是解决机器点什么的问 ...

  2. Groovy 学习手册(7)

    10. Groovy GPars GPars 一开始在 Groovy 中作为一个单独的项目,同时带来了很多并发的机制.它包含了很多并行的map/redue,Actors,以及其他很多并发的模块. 1. ...

  3. [转] Spring4.3.x 浅析xml配置的解析过程(6)——解析context命名空间之property-placeholder和property-override标签

    在上一篇解析自定义命名空间的标签中,我们已经知道解析自定义命名空间的标签需要用到NamespaceHandler接口的实现类,并且知道spring是如何获取命名空间对应的命名空间处理器对象的.因此我们 ...

  4. Android系统版本与API级别对照表

    对照表 API Level 最初Android版本 Linux内核版本 首次发布日期 后续Android版本 28 9 Unknown 2018-07-02(Beta 3) - 27 8.1 4.10 ...

  5. Hive 打开调试模式

    编程过程中发现错误,无法看到具体的错误信息,网上搜了下,按照下面的方法启动Hive Shell就可以打开调试(注意:此方法只对本次回话有效): hive --hiveconf hive.root.lo ...

  6. cocos2d-x 模态对话框的实现

    心情不好,恩.不扯淡了.直接讲. ================================== 在泰然看了一篇实现模态对话框的文章,写的还不错,然后在其基础上加了我简单加了一层灰色透明背景,这 ...

  7. [CTCI] 下一个较大元素

    下一个较大元素 题目描述 现在我们有一个int数组,请你找出数组中每个元素的下一个比它大的元素. 给定一个int数组A及数组的大小n,请返回一个int数组,代表每个元素比他大的下一个元素,若不存在则为 ...

  8. 趣味讲解:移动互联网 VS 传统互联网

    趣味讲解:移动互联网 VS 传统互联网 太阳火神的漂亮人生 (http://blog.csdn.net/opengl_es) 本文遵循"署名-非商业用途-保持一致"创作公用协议 转 ...

  9. javascript原生bind方法详解

    bind()方法,是javascript原生的函数类的一个原型方法(即Function.prototype里的方法),不支持ie低版本. 基本格式: function.bind(obj1,obj2,o ...

  10. c#多线程 Invoke方法的使用

    在多线程编程中,我们经常要在工作线程中去更新界面显示,而在多线程中直接调用界面控件的方法是错误的做法,Invoke 和 BeginInvoke 就是为了解决这个问题而出现的,使你在多线程中安全的更新界 ...