hadoop的集群安装

1、安装JDK,解压jar,配置环境变量

1.1、解压jar

tar -zxvf jdk-7u79-linux-x64.tar.gz -C /opt/install   //将jdk解压到对应的文件目录下

1.2、配置环境变量,

 sudo vim /etc/profile
//添加下面内容:
export JAVA_HOME=/opt/install/jdk1.7.0_79
export PATH=$JAVA_HOME/bin:$PATH

2、下载hadoop压缩包,解压jar,配置文件

2.1、解压jar

tar -zxvf hadoop-1.2.1.tar.gz -C /opt/install  //将jar解压到对应的目录下面

2.2、配置环境变量

 sudo vim /etc/profile
//添加HADOOP_HOME变量,修改path变量
export HADOOP_HOME=/opt/install/hadoop
export HADOOP_HOME_WARN_SUPPRESS=1 //防止hadoop在操作的时候有警告
export PATH=$JAVA_HOME/bin:$HADOOP_HOME/bin:$PATH

2.3、配置hadoop文件

2.3.1、修改hadoop/conf/hadoop-env.sh

//将JAVA_HOME修改为在/etc/profile中配置的环境变量 
export JAVA_HOME=/opt/install/jdk1.7.0_79

2.3.2、修改hadoop/conf/core-site.xml

<configuration>
<property>
<name>fs.default.name</name> //namenode所在主机
<value>hdfs://192.168.203.128:9000</value>
</property>
<property>
<name>hadoop.tmp.dir</name> //hadoop的临时文件目录
<value>/opt/data/hadoop1.2</value>
</property>
</configuration>

2.3.3、修改/hadoop/conf/hdfs-site.xml

<configuration>
<property>
<name>dfs.replication</name> //副本数
<value>3</value>
</property>
<property>
<name>dfs.permissions</name> //文件权限
<value>false</value>
</property>
</configuration>

2.3.4、修改/hadoop/conf/masters文件,该文件配置的secondnamenode所在位置

192.168.203.128  //自己的主机ip,最好是修改/etc/hosts文件

  2.3.5、修改hadoop/conf/slaves,该文件配置的datanode

192.168.203.129
192.168.203.130
192.168.203.131

2.3.6、修改/hadoop/conf/mapred-site.xml文件,设置jobtrocker

<configuration>
<property>
<name>mapred.job.tracker</name>
<value>192.168.203.128:9001</value>
</property>
</configuration>

2.3.7、在其他机器上也进行相同的配置,但是最好是在配置好ssh以后通过 scp的命令进行复制。

3、配置ssh免密码登录

3.1、查看本地是否能够ssh免密码登录

ssh localhost

3.2、如果需要密码就要生成密钥,

ssh-keygen -t dsa -P '' -f ~/.ssh/id_dsa
cat ~/.ssh/id_dsa.pub >> ~/.ssh/authorized_keys

3.3、配置远程免密码登录,让配置namenode主机能够免密码登录到datanode主机

scp ~/.ssh/id_dsa.pub hadoop@192.168.203.129:~  //将本机的公钥复制到192.168.203.129这台主机上

cat ~/id_dsa.pub >> ~/.ssh/authorized_keys   //在192.168.203.129的主机上执行这条命令,追加公钥到authorized_keys

4、启动hadoop

4.1、跳转到/hadoop/bin目录下,进行namenode的初始化

 hadoop namenode -format

4.2、启动hadoop

./start-all.sh   //启动hdfs已经mapreduce

./start-dfs.sh //启动hdfs

4.3、检验是否启动成功,执行jps命令,看namenode,secondnamenode,。。。等进程是否启动

5、通过hdfs的命令行进行操作,下面是一些简单的命令

hadoop fs -ls / 根目录
hadoop fs -lsr / 递归遍历根目录 hadoop fs -mkdir /user 创建文件夹 hadoop fs -put 文件 hdfs folder 上传文件,如果文件夹路径不存在,文件名字就是定义的名字 hadoop fs -get <hdfs file> <linux folder> 下载在linux中 hadoop fs -text <hdfs file> 查看文件内容 hadoop fs -rm <hdfs file> 删除文件 hadoop fs -rmr <hdfs folder> 删除文件夹 hadoop fs 显示hdfs文件相关参数 hadoop fs -help ls 命令描述

hadoop的集群安装的更多相关文章

  1. 基于zookeeper的高可用Hadoop HA集群安装

    (1)hadoop2.7.1源码编译 http://aperise.iteye.com/blog/2246856 (2)hadoop2.7.1安装准备 http://aperise.iteye.com ...

  2. hadoop 分布式集群安装

    这一套环境搭完,你有可能碰到无数个意想不到的情况. 用了1周的时间,解决各种linux菜鸟级的问题,终于搭建好了.. 沿途的风景,甚是历练. 环境介绍: 系统:win7 内存:16G(最低4G,不然跑 ...

  3. Hadoop分布式集群安装

        环境准备     操作系统使用ubuntu-16.04.2 64位 JDK使用jdk1.8 Hadoop使用Hadoop 2.8版本     镜像下载  操作系统     操作系统使用ubun ...

  4. Shell脚本完成hadoop的集群安装

    虽然整体实现的自动安装,但还是有很多需要完善的地方,比如说: 1. 代码目前只能在root权限下运行,否则会出错,这方面需要加权限判断: 2.另外可以增加几个函数,减少代码冗余: 3.还有一些判断不够 ...

  5. CentOS下Hadoop-2.2.0集群安装配置

    对于一个刚开始学习Spark的人来说,当然首先需要把环境搭建好,再跑几个例子,目前比较流行的部署是Spark On Yarn,作为新手,我觉得有必要走一遍Hadoop的集群安装配置,而不仅仅停留在本地 ...

  6. Hadoop多节点集群安装配置

    目录: 1.集群部署介绍 1.1 Hadoop简介 1.2 环境说明 1.3 环境配置 1.4 所需软件 2.SSH无密码验证配置 2.1 SSH基本原理和用法 2.2 配置Master无密码登录所有 ...

  7. 一步步教你Hadoop多节点集群安装配置

    1.集群部署介绍 1.1 Hadoop简介 Hadoop是Apache软件基金会旗下的一个开源分布式计算平台.以Hadoop分布式文件系统HDFS(Hadoop Distributed Filesys ...

  8. Hadoop集群安装配置教程_Hadoop2.6.0_Ubuntu/CentOS

    摘自:http://www.powerxing.com/install-hadoop-cluster/ 本教程讲述如何配置 Hadoop 集群,默认读者已经掌握了 Hadoop 的单机伪分布式配置,否 ...

  9. hadoop学习之hadoop完全分布式集群安装

    注:本文的主要目的是为了记录自己的学习过程,也方便与大家做交流.转载请注明来自: http://blog.csdn.net/ab198604/article/details/8250461 要想深入的 ...

随机推荐

  1. 如何重启MySQL服务,正确重启mysql

    RedHat Linux (Fedora Core/Cent OS) 1.启动:/etc/init.d/mysqld start 2.停止:/etc/init.d/mysqld stop 3.重启:/ ...

  2. spring与hibernate整合配置基于Annotation注解方式管理实务

    1.配置数据源 数据库连接基本信息存放到properties文件中,因此先加载properties文件 <!-- jdbc连接信息 --> <context:property-pla ...

  3. android网络通讯数据封装之 json

    Demo程序包括客户端和服务端 客户端按json数据格式封装数据传至服务端. 服务端为简单的servlet程序,负责接收客户端传到json数据,然后按原数据返回客户端. 实例代码如下: public ...

  4. ubuntu使用crontab

    crond服务通常被放在/etc/init.d/crond , 这样就可以在系统启动后自动启动crond服务. linux中的用户使用crontab命令来配置cron任务. crontab在/etc目 ...

  5. Java程序栈信息文件中的秘密(五)

    最近发现在使用jstack工具在导出Java应用的线程栈时有一个小小的窍门,比如Linux环境上有一个用户为appuser,假如以这个用户启动了一个Java进程B,如果想要导出进程B的线程栈,则必须切 ...

  6. [每日一题] OCP1z0-047 :2013-08-22 正则表达式---[^Ale|ax.r$]'

    正确答案:DE 一.Oracle正则表达式的相关知识点 '[^Ale|ax.r$]': ^:匹配行的开始字符 $:匹配行的结束字符 []:方括号表示指定一个匹配列表,该列表匹配列表中显示的任何表达式. ...

  7. js小写转实现资本,js数字革命万元

    <!DOCTYPE HTML PUBLIC "-//W3C//DTD HTML 4.0 Transitional//EN"> <html>  <hea ...

  8. poj1363Rails(栈模拟)

    主题链接: id=1363">啊哈哈,点我点我 思路: 这道题就是一道简单的栈模拟. .. .我最開始认为难处理是当出栈后top指针变化了. .当不满足条件时入栈的当前位置怎么办.这时 ...

  9. curl向web服务器发送json数据

    c++使用libcurl: /* *g++ demo.cpp -g -Wall -lcurl */ #include <string.h> #include <stdlib.h> ...

  10. js中使用控件名和数组下标方式获取控件的值时失败

    在做界面展示时涉及到表单行项目的增加和删除时,我们一帮都使用js的脚本实现表单行的增加和删除,那么在进行表单的提交的时我们会再页面上进行提交数据的初步校验,进行数据的初步校验时,就要动态获取控件的值. ...