hadoop小试
standard mode(标准模式)
下载
wget http://mirror.bit.edu.cn/apache/hadoop/common/stable/hadoop-2.7.2.tar.gz
解压到/usr/local/hadoop目录下(先创建此目录)
用root身份新建hadoop用户,并设定密码
useradd hadoop
passwd hadoop
加入到root组
useradd -a -G root hadoop
设定 /usr/local/hadoop的owner
chown -R hadoop: /usr/local/hadoop
切换到hadoop用户,并编辑~/.bashrc文件,添加以下指令(/etc/profile更好)
alias hadoop="/usr/local/hadoop/bin/hadoop"
通过source ~/.bashrc使得以上修改立即生效。
体验下单词计数
mkdir input
echo "aaa bbb ccc aaa" >> input/words
hadoop jar /usr/local/hadoop/share/hadoop/mapreduce/hadoop-mapreduce-examples-2.7.2.jar wordcount input output
(ps , 可能碰到主机名报错,无法识别的主机名等等,编辑/etc/hosts文件,添加记录 "127.0.0.1 主机名")
伪分布模式
修改/usr/local/hadoop文件夹所有者
sudo chown -R hadoop:root /usr/local/hadoop
修改.bashrc文件(/etc/profile更好),添加内容如下:
export HADOOP_HOME=/usr/local/hadoop
export HADOOP_MAPRED_HOME=$HADOOP_HOME
export HADOOP_COMMON_HOME=$HADOOP_HOME
export HADOOP_HDFS_HOME=$HADOOP_HOME
export YARN_HOME=$HADOOP_HOME
export HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_HOME/lib/native
export PATH=$PATH:$HADOOP_HOME/sbin:$HADOOP_HOME/bin
export HADOOP_INSTALL=$HADOOP_HOME
配置hadoop:
所有操作之前,设置hadoop的JAVA_HOME(/etc/profile更好, 需要单独设定hadoop/etc/hadoop/hadoop-env.sh的JAVA_HOME,很奇怪),
export JAVA_HOME=/usr/lib/jvm/jre
1. 核心配置(core-site.xml):在这里配置hadoop实例的端口号,文件系统的内存分配,存储数据的内存大小限制,读写缓存区的大小。
vi /usr/local/hadoop/etc/hadoop/core-site.xml
在configuration节点下添加以下内容
<property>
<name>fs.default.name </name>
<value>hdfs://localhost:9000</value>
</property>
2. hdfs配置:是否多备(replication), 命名节点(namenode)的路径, 数据节点(datanode)的本地路径。
vi /usr/local/hadoop/etc/hadoop/hdfs-site.xml
在configuration节点下添加以下内容
<property>
<name>dfs.replication</name>
<value>1</value>
</property> <property>
<name>dfs.name.dir</name>
<value>file:///home/hadoop/hadoopinfra/hdfs/namenode </value>
</property> <property>
<name>dfs.data.dir</name>
<value>file:///home/hadoop/hadoopinfra/hdfs/datanode </value>
</property>
hadoopinfra即其下面的目录不用手工建立,格式化时会自动建立。
3. yarn配置
vi /usr/local/hadoop/etc/hadoop/yarn-site.xml
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
4. mapreduce框架配置
vi /usr/local/hadoop/etc/hadoop/mapred-site.xml
在configuration节点下添加以下内容
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>
这里配置了默认的yarn作为mapreduce算法的处理对象。
应该也可配置spark。
5. 启动
a), 切换到hadoop用户,进行hdfs格式化,如下:
cd ~
hdfs namenode -format
b), 启动dfs和yarn
start-dfs.sh
...
start-yarn.sh
...
c). 查看hadoop运行情况,用浏览器打开http://localhost:50070/
d). 查看集群(cluster)的应用(applications) 用浏览器打开http://localhost:8088/
如果觉得英文阅读毫无问题,建议看这里:http://www.tutorialspoint.com/hadoop/hadoop_enviornment_setup.htm
hadoop小试的更多相关文章
- Hadoop 中利用 mapreduce 读写 mysql 数据
Hadoop 中利用 mapreduce 读写 mysql 数据 有时候我们在项目中会遇到输入结果集很大,但是输出结果很小,比如一些 pv.uv 数据,然后为了实时查询的需求,或者一些 OLAP ...
- 初识Hadoop、Hive
2016.10.13 20:28 很久没有写随笔了,自打小宝出生后就没有写过新的文章.数次来到博客园,想开始新的学习历程,总是被各种琐事中断.一方面确实是最近的项目工作比较忙,各个集群频繁地上线加多版 ...
- hadoop 2.7.3本地环境运行官方wordcount-基于HDFS
接上篇<hadoop 2.7.3本地环境运行官方wordcount>.继续在本地模式下测试,本次使用hdfs. 2 本地模式使用fs计数wodcount 上面是直接使用的是linux的文件 ...
- hadoop 2.7.3本地环境运行官方wordcount
hadoop 2.7.3本地环境运行官方wordcount 基本环境: 系统:win7 虚机环境:virtualBox 虚机:centos 7 hadoop版本:2.7.3 本次先以独立模式(本地模式 ...
- 【Big Data】HADOOP集群的配置(一)
Hadoop集群的配置(一) 摘要: hadoop集群配置系列文档,是笔者在实验室真机环境实验后整理而得.以便随后工作所需,做以知识整理,另则与博客园朋友分享实验成果,因为笔者在学习初期,也遇到不少问 ...
- Hadoop学习之旅二:HDFS
本文基于Hadoop1.X 概述 分布式文件系统主要用来解决如下几个问题: 读写大文件 加速运算 对于某些体积巨大的文件,比如其大小超过了计算机文件系统所能存放的最大限制或者是其大小甚至超过了计算机整 ...
- 程序员必须要知道的Hadoop的一些事实
程序员必须要知道的Hadoop的一些事实.现如今,Apache Hadoop已经无人不知无人不晓.当年雅虎搜索工程师Doug Cutting开发出这个用以创建分布式计算机环境的开源软...... 1: ...
- Hadoop 2.x 生态系统及技术架构图
一.负责收集数据的工具:Sqoop(关系型数据导入Hadoop)Flume(日志数据导入Hadoop,支持数据源广泛)Kafka(支持数据源有限,但吞吐大) 二.负责存储数据的工具:HBaseMong ...
- Hadoop的安装与设置(1)
在Ubuntu下安装与设置Hadoop的主要过程. 1. 创建Hadoop用户 创建一个用户,用户名为hadoop,在home下创建该用户的主目录,就不详细介绍了. 2. 安装Java环境 下载Lin ...
随机推荐
- Deep Learning in a Nutshell: History and Training
Deep Learning in a Nutshell: History and Training This series of blog posts aims to provide an intui ...
- docker快速启动脚本
#!/bin/sh PID=$(docker inspect --format "{{.State.Pid}}" $1) nsenter -t $PID -u -i -n -p n ...
- C# Pointer types
https://msdn.microsoft.com/en-us/library/y31yhkeb.aspx
- 使用pt-fifo-split 工具往mysql插入海量数据
在<mysql插入/更新数据>这篇文章提到,使用LOAD DATA INFILE语句,可以从一个文件直接加载数据到mysql中,但如果文件非常大,可能还需要对文件进行切割,分多次加载,这种 ...
- Yii2 执行流程
原文地址: http://www.cnblogs.com/cresuccess/p/4874330.html
- yii2 如何用命名空间方式使用第三方类库
原文地址:http://www.yiichina.com/tutorial/395 Yii 2.0最显著的特征之一就是引入了命名空间,因此对于自定义类的引入方式也同之前有所不同.这篇文章讨论一下如何利 ...
- SQL Server2008 with(lock)用法
参考资料: WITH (NOLOCK) 在sqlserver 中with(nolock)详解
- 怎样让Oracle支持中文? 语言_地域.字符集
暂时不涉及数据库业务,但是今天入库的时候中文入库报错,考虑可能是字体不支持,留待备用. 来源:Linux社区 作者:robertkun 语言_地域.字符集SIMPLIFIED CHINESE_CHI ...
- ManualResetEvent详解
原文来自:http://www.cnblogs.com/tianzhiliang/archive/2011/03/04/1970726.html 1. 源码下载: 下载地址:http://files. ...
- WCF中安全的那些事!!!
WCF默认绑定 WCF预先为所有绑定都定义了能满足大多数情形的配置模式,这样的话,只要没有修改某个配置参数,WCF就使用默认的安全模式. 先上一张默认的安全设置表格 绑定 设置 wsHttpBindi ...