Hadoop--设置单一节点集群
目的
这篇文档描述如何安装和配置一个单一节点的Hadoop,以便你可以快速使用hadoop mapreduce和Hadoop Distributed File System (HDFS)的一些简单操作。
先决条件
支持平台
- GNU/Linux 是受支持的开发和生成平台。Hadoop已经证明了2000各节点的GNU/Linux 集群。
 - Windows也是受支持的平台,但是一下步骤只是用于Linux。要在Windows上安装,情况 wiki page。
 
所需软件
Linux平台所需软件包括:
- Java。推荐的Java版本在 HadoopJavaVersions中描述。
 - ssh必须安装。推荐安装pdsh。
 
安装软件
如果你还没有安装这些软件:
  $ sudo apt-get install ssh
  $ sudo apt-get install pdsh
下载
获取最新的Hadoop发行版,从Apache Download Mirrors中选一个最新的稳定版下载。
准本开始Hadoop集群
解压下载的Hadoop,编辑etc/hadoop/hadoop-env.sh定义一些参数如下:
  # set to the root of your Java installation
  export JAVA_HOME=/usr/java/latest
试下下面命令:
$ bin/hadoop
此处会显示hadoop脚本用法。
现在你已经准备好了,Hadoop集群支持三种模式之一:
- Local (Standalone) Mode(本地模式)
 - Pseudo-Distributed Mode(为分布模式)
 - Fully-Distributed Mode(全分布模式)
 
Standalone操作
默认情况下,Hadoop是以一个Java进程运行为非分布模式,有利于调试。
下面示例复制解压的conf文件夹作为输入,然后查找显示每个匹配正则表达式的项,输出结果写到到output文件夹。
  $ mkdir input
  $ cp etc/hadoop/*.xml input
  $ bin/hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-3.0.0-alpha2.jar grep input output 'dfs[a-z.]+'
  $ cat output/*
Pseudo-Distributed 操作
Hadoop也可以伪分布的方式运行在一个节点中,每个Hadoop进程运行在单独的Java进程中。
配置
使用如下
etc/hadoop/core-site.xml:
<configuration>
    <property>
        <name>fs.defaultFS</name>
        <value>hdfs://localhost:9000</value>
    </property>
</configuration>
etc/hadoop/hdfs-site.xml:
<configuration>
    <property>
        <name>dfs.replication</name>
        <value>1</value>
    </property>
</configuration>
设置ssh密码
现在检查你是否可以不需要密码使用ssh登陆到本地。
 $ ssh localhost
如果ssh需要密码登陆,执行下面命令:
  $ ssh-keygen -t rsa -P '' -f ~/.ssh/id_rsa
  $ cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys
  $ chmod 0600 ~/.ssh/authorized_keys
执行
下面的说明是在本地运行MapReduce作业。如果你想基于YARN运行作业,请看YARN on Single Node.
- 格式化文件系统:
 
$ bin/hdfs namenode -format
- 启动NameNode守护进程和DataNode守护进程:
 
$ sbin/start-dfs.sh
hadoop守护进程日志写在$HADOOP_LOG_DIR文件夹中(默认是 $HADOOP_HOME/logs)。
3. 浏览NameNode的web接口;默认在:
NameNode - http://localhost:9870/
- 为需要运行的MapReduce作业创建HDFS文件夹:
 
  $ bin/hdfs dfs -mkdir /user
  $ bin/hdfs dfs -mkdir /user/<username>
- 把input文件复制到分布式文件夹中:
 
  $ bin/hdfs dfs -mkdir input
  $ bin/hdfs dfs -put etc/hadoop/*.xml input
- 运行一些提供实例:
 
  $ bin/hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-3.0.0-alpha2.jar grep input output 'dfs[a-z.]+'
- 检查输出文件:把分布式文件系统中的输出文件拷贝到本地文件系统然后查看:
 
  $ bin/hdfs dfs -get output output
  $ cat output/*
或者
直接在分布式文件系统中浏览:
  $ bin/hdfs dfs -cat output/*
- 完成后,关闭守护进程:
 
 $ sbin/stop-dfs.sh
YARN on a Single Node
你可以在伪分布模式上通过设置一些参数和启动ResourceManager和NodeManager  守护进程执行基于YARN的MapReduce作业。
以下说明假设你已经执行完上面1-4步骤。
- 配置参数如下:
etc/hadoop/mapred-site.xml: 
<configuration>
    <property>
        <name>mapreduce.framework.name</name>
        <value>yarn</value>
    </property>
</configuration>
etc/hadoop/yarn-site.xml:
<configuration>
    <property>
        <name>yarn.nodemanager.aux-services</name>
        <value>mapreduce_shuffle</value>
    </property>
    <property>
        <name>yarn.nodemanager.env-whitelist</name>
        <value>JAVA_HOME,HADOOP_COMMON_HOME,HADOOP_HDFS_HOME,HADOOP_CONF_DIR,CLASSPATH_PREPEND_DISTCACHE,HADOOP_YARN_HOME,HADOOP_MAPRED_HOME</value>
    </property>
</configuration>
- 启动ResourceManager和NodeManager守护进程:
 
  $ sbin/start-yarn.sh
- 浏览ResourceManager的web接口,默认是:
 
ResourceManager - http://localhost:8088/
- 运行一个MapReduce作业。
 - 当你完成后,关闭守护进程:
 
  $ sbin/stop-yarn.sh
全分布操作
对于安装全分布而不是测试的集群的信息,请看集群安装。
Hadoop--设置单一节点集群的更多相关文章
- Hadoop学习笔记(两)设置单节点集群
		
本文描写叙述怎样设置一个单一节点的 Hadoop 安装.以便您能够高速运行简单的操作,使用 Hadoop MapReduce 和 Hadoop 分布式文件系统 (HDFS). 參考官方文档:Hadoo ...
 - CentOS7搭建hadoop2.6.4双节点集群
		
环境: CentOS7+SunJDK1.8@VMware12. NameNode虚拟机节点主机名:master,IP规划:192.168.23.101,职责:Name node,Secondary n ...
 - Hadoop-2.2.0中国文献——MapReduce 下一代 —配置单节点集群
		
Mapreduce 包 你需从公布页面获得MapReduce tar包.若不能.你要将源代码打成tar包. $ mvn clean install -DskipTests $ cd hadoop-ma ...
 - Ambari安装之部署单节点集群
		
前期博客 大数据领域两大最主流集群管理工具Ambari和Cloudera Manger Ambari架构原理 Ambari安装之Ambari安装前准备(CentOS6.5)(一) Ambari安装之部 ...
 - Hyperledger Fabric 1.0 从零开始(六)——创建Fabric多节点集群
		
4:创建Fabric多节点集群 4.1.配置说明 首先可以根据官方Fabric自带的e2e_cli列子中的集群方案来生成我们自己的集群,与案例不同的是我们需要把容器都分配到不同的服务器上,彼此之间通过 ...
 - Nova控制节点集群
		
#Nova控制节点集群 openstack pike 部署 目录汇总 http://www.cnblogs.com/elvi/p/7613861.html ##Nova控制节点集群 # control ...
 - Neutron控制节点集群
		
#Neutron控制节点集群 openstack pike 部署 目录汇总 http://www.cnblogs.com/elvi/p/7613861.html #.Neutron控制节点集群 #本实 ...
 - kubeadm安装K8S单master双节点集群
		
宿主机:master:172.16.40.97node1:172.16.40.98node2:172.16.40.99 # 一.k8s初始化环境:(三台宿主机) 关闭防火墙和selinux syste ...
 - 高可用OpenStack(Queen版)集群-9.Cinder控制节点集群
		
参考文档: Install-guide:https://docs.openstack.org/install-guide/ OpenStack High Availability Guide:http ...
 
随机推荐
- docker 集群  kubernetes 1.8 构建
			
1.环境说明:操作系统:CentOS7Kubernetes 版本:v1.8.3Docker 版本:v17.06-ce master 192.168.10.220 etcd kube-apiser ...
 - :nth-child   :nth-type-of用法详解
			
ele:nth-of-type(n) 是指父元素下ele元素里的第n个ele:nth-child(n) 是指父元素下第n个元素且这个元素为ele
 - [LeetCode] Maximum Depth of Binary Tree dfs,深度搜索
			
Given a binary tree, find its maximum depth. The maximum depth is the number of nodes along the long ...
 - android中与Adapter相关的控件----Spinner&AutoCompleteTextView
			
Spinner(列表选项框) & AutoCompleteTextView(自动完成文本框) 一.列表选项框核心属性 android:dropDownHorizontalOffset设置列表框 ...
 - JavaScript 之类型转换
			
数值转换成字符串类型 1.利用 “+” 将数值加上一个长度为零的空字符串. 2.通过toString()方法.加入参数可以直接进行进制的转换. <script language="ja ...
 - hdu 4524(模拟)
			
郑厂长系列故事——逃离迷宫 Time Limit: 3000/1000 MS (Java/Others) Memory Limit: 65535/32768 K (Java/Others)Tot ...
 - Codeforces Gym100735 D.Triangle Formation (KTU Programming Camp (Day 1) Lithuania, Birˇstonas, August 19, 2015)
			
日常训练题解 D.Triangle Formation You are given N wooden sticks. Your task is to determine how many triang ...
 - Codeforces Gym100971 B.Derangement (IX Samara Regional Intercollegiate Programming Contest Russia, Samara, March 13)
			
昨天训练打的Gym,今天写题解. 这个题就是输出的时候有点小问题,其他的都很简单. 代码: #include<iostream> #include<cstring> #incl ...
 - Java面试常问的问题(转载)
			
并发.JVM.分布式.TCP/IP协议 1)Java的数据结构相关的类实现原理,比如LinkedList,ArrayList,HashMap,TreeMap这一类的.以下简单模拟一个数据结构的连环炮. ...
 - 洛谷——P1690 贪婪的Copy
			
P1690 贪婪的Copy 题目描述 Copy从卢牛那里听说在一片叫yz的神的领域埋藏着不少宝藏,于是Copy来到了这个被划分为个区域的神地.卢牛告诉了Copy这里共有个宝藏,分别放在第Pi个(1&l ...