hadoop2.0初识1.1
1.伪分布式hdfs文件系统的搭建(单节点文件系统)
1.1.根据上节的讲解,配置主机映射、jdk和解压hadoop压缩包
1.2.配置namenode
在/opt/modules/hadoop-2.5.0/etc/hadoop/core-site.xml中配置一下内容
<!--配置namenode所在主机和端口-->
<property>
<name>fs.defaultFS</name>
<value>hdfs://life-hadoop.life.com:8020</value>
</property>
<!--配置数据临时目录 如果不存在需要先创建给目录-->
<property>
<name>hadoop.tmp.dir</name>
<value>/opt/modules/hadoop-2.5.0/data/temp</value>
</property>
<!--配置删除的文件在垃圾箱中存储的时间,单位:分钟-->
<property>
<name>fs.trash.interval</name>
<value>10080</value>
</property>
1.2.1.格式化文件系统
[yanglin@life-hadoop hadoop-2.5.0]$ bin/hdfs namenode -format
1.2.2.运行[yanglin@life-hadoop hadoop-2.5.0]$ sbin/hadoop-daemon.sh start namenode查看是否启动成功
或者在浏览器中输入life-hadoop:50070 其中life-hadoop为主机名
1.3.配置secondarynamenode
1.3.1.在/opt/modules/hadoop-2.5.0/etc/hadoop/hdfs-site.xml中配置一下内容
<!--配置secondarynamenode所在的主机-->
<property>
<name>dfs.namenode.secondary.http-address</name>
<value>life-hadoop.life.com:50090</value>
</property>
1.3.2.运行[yanglin@life-hadoop hadoop-2.5.0]$ sbin/hadoop-daemon.sh start secondarynamenode
1.4.配置datanode
1.4.1.在/opt/modules/hadoop-2.5.0/etc/hadoop/hdfs-site.xml中配置一下内容
<!--配置备份数-->
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
1.4.2.在/opt/modules/hadoop-2.5.0/etc/hadoop/salves中配置datanode所在的主机
1.4.3.运行[yanglin@life-hadoop hadoop-2.5.0]$ sbin/hadoop-daemon.sh start datanode命令启动datanode
2.到此我们的伪分布式文件系统已经配置完成,接下来进行测试
2.1.查看当前文件系统的目录
[yanglin@life-hadoop hadoop-2.5.0]$ bin/hdfs dfs -ls -R /
或者
2.2.创建目录
创建/user/yanglin/conf目录
[yanglin@life-hadoop hadoop-2.5.0]$ bin/hdfs dfs -mkdir -p /user/yanglin/conf
可以通过web浏览器进行验证是否创建成功
2.3.上传文件
将本地的etc/hadoop/*-site.xml文件上传到/user/yanglin/conf目录中
[yanglin@life-hadoop hadoop-2.5.0]$ bin/hdfs dfs -put etc/hadoop/*-site.xml /user/yanglin/conf
2.4.下载文件
将服务器中的/user/yanglin/conf/core-site.xml下载到当前目录
[yanglin@life-hadoop hadoop-2.5.0]$ bin/hdfs dfs -get /user/yanglin/conf/core-site.xml
2.5.查看指定文件的内容
查看/user/yanglin/conf/core-site.xml文件的内容
[yanglin@life-hadoop hadoop-2.5.0]$ bin/hdfs -cat /user/yanglin/conf/core-site.xml
2.6.删除指定文件或目录
删除/user/yanglin/conf/test.txt文件
[yanglin@life-hadoop hadoop-2.5.0]$ bin/hdfs dfs -rm -r /user/yanglin/conf/test.txt
2.7.跟多hdfs命令可以使用[yanglin@life-hadoop hadoop-2.5.0]$ bin/hdfs dfs查看
3.将wrodcount程序运行到hdfs文件系统上
3.1.创建目录
[yanglin@life-hadoop hadoop-2.5.0]$ bin/hdfs -mkdir -p /user/yanglin/mapreduce/wordcount/input/
3.2.将测试文件上传到input目录中
[yanglin@life-hadoop hadoop-2.5.0]$ bin/hdfs -put wcinput/wc.input /user/yanglin/mapreduce/wordcount/input/
3.3.运行mapreduce程序将运行结果上传到hdfs文件系统
[yanglin@life-hadoop hadoop-2.5.0]$ bin/hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-2.5.0.jar wordcount /user/yanglin/mapreduce/wordcount/input /user/yanglin/mapreduce/wordcount/output
查看是否运行成功:
或者通过
[yanglin@life-hadoop hadoop-2.5.0]$ bin/hdfs dfs -ls /user/yanglin/mapreduce/wordcount/output
查看运行结果:
[yanglin@life-hadoop hadoop-2.5.0]$ bin/hdfs dfs -text /user/yanglin/mapreduce/wordcount/output/part*
4.将项目运行到yarn上
4.1.配置resourcemanager节点
4.1.1.在/opt/modules/hadoop-2.5.0/etc/hadoop/yarn-site.xml中配置一下内容
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
<!--配置resourcemanager所在的主机-->
<property>
<name>yarn.resourcemanager.hostname</name>
<value>life-hadoop.life.com</value>
</property>
4.1.2.在/opt/modules/hadoop-2.5.0/etc/hadoop/mapred-site.xml中配置一下内容
<!--配置使用的yarn框架来运行mapreduce-->
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>
4.2.配置nodemanager节点
和datanode节点配置一样都是在/opt/modules/hadoop-2.5.0/etc/hadoop/salves文件中
4.3.启动yarn
4.3.1.启动resourcemanager节点
[yanglin@life-hadoop hadoop-2.5.0]$ sbin/yarn-daemon.sh start resourcemanager
4.3.2.启动nodemanager节点
[yanglin@life-hadoop hadoop-2.5.0]$ sbin/yarn-daemon.sh start nodemanager
或者在浏览器中输入life-hadoop:8088
4.3.3.将wordcount程序运行在yarn上
[yanglin@life-hadoop hadoop-2.5.0]$ bin/hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-2.5.0.jar wordcount /user/yanglin/mapreduce/wordcount/input /user/yanglin/mapreduce/wordcount/output
和3.3一样查看是否运行成功或者
单点击history是不能显示,是因为没有配置日志聚集功能
5.配置日志聚集
在/opt/modules/hadoop-2.5.0/etc/hadoop/yarn-site.xml中配置一下内容
<!-- 配置日志聚集-->
<property>
<name>yarn.log-aggregation-enable</name>
<value>true</value>
</property>
<!-- 配置日志的有效时间 7天 单位为秒-->
<property>
<name>yarn.log-aggregation.retain-check-interval-seconds</name>
<value>604800</value>
</property>
重启resouremangager和nodemanger重新运行wordcount程序即可
hadoop2.0初识1.1的更多相关文章
- hadoop2.0初识1.3
1.配置分布式hadoop 1.1 准备三台测试机(虚拟机就可以) 1.1.1 将life-hadoop虚拟机克隆2个分别为life-hadoop02和life-hadoop03 1.1.2 查看ip ...
- hadoop2.0初识1.0
1.给普通用户设置sudo权限 编辑:[root@life-hadoop /]# nano /etc/sudoers 在文件头部加入:yanglin ALL=(root)NOPASSWD:ALL 保存 ...
- hadoop2.0初识1.2
1 hadoop启动方式(三种) 1.1 各个服务组件逐一启动 *dfs hadoop-daemon.sh start|stop namenode|datanode|secondarynamenode ...
- hadoop入门(3)——hadoop2.0理论基础:安装部署方法
一.hadoop2.0安装部署流程 1.自动安装部署:Ambari.Minos(小米).Cloudera Manager(收费) 2.使用RPM包安装部署:Apache ...
- Hadoop2.0(HDFS2)以及YARN设计的亮点
YARN总体上仍然是Master/Slave结构,在整个资源管理框架中,ResourceManager为Master,NodeManager为Slave,ResouceManager负责对各个Node ...
- hadoop2.0 和1.0的区别
1. Hadoop 1.0中的资源管理方案Hadoop 1.0指的是版本为Apache Hadoop 0.20.x.1.x或者CDH3系列的Hadoop,内核主要由HDFS和MapReduce两个系统 ...
- Hadoop2.0重启脚本
Hadoop2.0重启脚本 方便重启带ha的集群,写了这个脚本 #/bin/bash sh /opt/zookeeper-3.4.5-cdh4.4.0/bin/zkServer.sh restart ...
- ganglia监控hadoop2.0配置方法
ganglia监控hadoop2.0配置方法前提:hadoop2.0集群已安装ganglia监控工具第一步:Hadoop用户登录集群每一个节点,修改文件:vi /opt/hadoop-2.0.0-cd ...
- hadoop-2.0.0-mr1-cdh4.2.0源码编译总结
准备编译hadoop-2.0.0-mr1-cdh4.2.0的同学们要谨慎了.首先看一下这篇文章: Hadoop作业提交多种方案 http://www.blogjava.net/dragonHadoop ...
随机推荐
- chineseChess
最近学习了chineseChess的Qt实现,把一些东西总结一下: 实现功能: 1.人人对战 2.人机对战 3.网络版 一.基础性工作:(人人对战) 1.棋盘和棋子的绘制(QPinter,drawLi ...
- # 20145334 《Java程序设计》第9周学习总结
20145334 <Java程序设计>第9周学习总结 教材学习内容总结 第十六章 整合数据库 JDBC 1.Java语言访问数据库的一种规范,是一套API. 2.JDBC (Java Da ...
- 利用.htaccess实现伪静态方法
首先配置服务器启动重写模块打开 Apache 的配置文件 httpd.conf .将#LoadModule rewrite_module modules/mod_rewrite前面的#去掉.保存后重启 ...
- Password Attacker
Passwords are widely used in our lives: for ATMs, online forum logins, mobile device unlock and door ...
- You and Your Research(Chinese)
转自:http://lyxh-2003.iteye.com/blog/434014 这是大科学家Richard Hamming的著名讲演,于1986年在贝尔通讯研究中心给200多名Bellcore的科 ...
- windows下安装 sphinx 数据库全文搜索引擎
此次演示的环境是:win7系统,64位,php5.4.x,apache sphinx,斯芬克斯(英语不好的同学可以直接读这个音),意狮身人面像 特点:创建索引速度快,3分钟左右能创建100万条记录的索 ...
- MongoDB安装并设置为windows服务以使其开机自启
在MongoDB的官方下载windows平台的压缩zip文件,地址:https://www.mongodb.org/dr/fastdl.mongodb.org/win32/mongodb-win32- ...
- Python开发【第三章】:Python函数介绍
一. 函数介绍 1.函数是什么? 在学习函数之前,一直遵循面向过程编程,即根据业务逻辑从上到下实现功能,其往往用一长段代码来实现指定功能,开发过程中最常见的操作就是粘贴复制,也就是将之前实现的代码块复 ...
- [Android Tips] 9. framework notification layout font size
android 4.4 framework notification layout 相关字体大小 * title: notification_title_text_size: 18dp * conte ...
- CPlus播放多媒体之播放声音
1.头文件需要<mmsystem.h>,但是之前需要包含<windows.h> 2.预处理#pragma comment<lib,"winmm.h"& ...