《OD大数据实战》HDFS入门实例
一、环境搭建
1. 下载安装配置
2. Hadoop配置信息
1)${HADOOP_HOME}/libexec:存储hadoop的默认环境变量信息
(1)hadoop-config.sh
(2)hdfs-config.sh
(3)mapred-config.sh
(4)yarn-config.sh
(5)httpfs-config.sh & kms-config.sh
2)${HADOOP_HOME}/etc/hadoop:搭建环境时配置的环境变量信息
(1)hadoop-env.sh
(2)mapred-env.sh
(3)yarn-env.sh
(4)httpfs-env.sh & kms-env.sh
3)${HADOOP_HOME}/share/hadoop:hadoop相关依赖包信息,包括各个模块依赖的其他第三方jar等信息
二、Hadoop Shell命令
1. 启动命令
位于sbin目录下。
1)httpfs.sh命令
启动/停止webhdfs
参数: debug, start, stop
(1)查看
curl -i "http://beifeng-hadoop-02:14000/webhdfs/v1?op=LISTSTATUS&user.name=beifeng"
(2)创建目录
curl -i -X PUT "http://beifeng-hadoop-02:14000/webhdfs/v1/user/beifeng/httpfs?op=MKDIRS&user.name=beifeng"
(3)上传文件
curl -i -X PUT "http://beifeng-hadoop-02:14000/webhdfs/v1/user/beifeng/httpfs/abc.txt?op=CREATE&user.name=beifeng" curl -i -H "content-type:application/octet-stream" -X PUT -T ./kafka-start.log "http://beifeng-hadoop-02:14000/webhdfs/v1/user/beifeng/httpfs/abc.txt?op=CREATE&user.name=beifeng&data=true"
(4)打开文件
curl -i "http://beifeng-hadoop-02:14000/webhdfs/v1/user/beifeng/httpfs/abc.txt?op=OPEN&user.name=beifeng"
(5)删除文件
curl -i -X DELETE "http://beifeng-hadoop-02:14000/webhdfs/v1/user/beifeng/httpfs/abc.txt?op=DELETE&user.name=beifeng"
2)hadoop-daemon.sh
3)hadoop-daemons.sh
hadoop-daemons.sh是在hadoop-daemon.sh的基础上,通知其他机器执行命令,也就是说hadoop-daemon.sh只对一台机器起作用,但是hadoop-daemons.sh会对多台机器起作用
4)yarn-daemon.sh
5)start-dfs.sh
启动所有节点的hdfs相关服务进程
hadoop-daomons.sh脚本启动:namenode,datanode,secondarynamenode,journalnode,zkfc
6)stop-dfs
7)start-yarn.sh
yarn-daemons.sh脚本启动:resourcemanager,nodemanager
8)stop-yarn.sh
9)mr-jobhistory-daemon.sh
启动/停止当前节点的mapred相关服务
10)其他命令
kms.sh
refresh-namenode.sh
slaves.sh
start/stop-secure-dns.sh
start/stop-balance.sh
start/stop-all.sh
2. 控制/操作命令(hfds + mapred + yarn)
位于bin目录下。
《OD大数据实战》HDFS入门实例的更多相关文章
- 《OD大数据实战》驴妈妈旅游网大型离线数据电商分析平台
一.环境搭建 1. <OD大数据实战>Hadoop伪分布式环境搭建 2. <OD大数据实战>Hive环境搭建 3. <OD大数据实战>Sqoop入门实例 4. &l ...
- 《OD大数据实战》Hive环境搭建
一.搭建hadoop环境 <OD大数据实战>hadoop伪分布式环境搭建 二.Hive环境搭建 1. 准备安装文件 下载地址: http://archive.cloudera.com/cd ...
- 《OD大数据实战》环境整理
一.关机后服务重新启动 1. 启动hadoop服务 sbin/hadoop-daemon.sh start namenode sbin/hadoop-daemon.sh start datanode ...
- 《OD大数据实战》Hive入门实例
官方参考文档:https://cwiki.apache.org/confluence/display/Hive/LanguageManual 一.命令行和客户端 1. 命令窗口 1)进入命令窗口 hi ...
- 《OD大数据实战》Sqoop入门实例
官网地址: http://archive.cloudera.com/cdh5/cdh/5/sqoop-1.4.5-cdh5.3.6/SqoopUserGuide.html 一.环境搭建 1. 下载 s ...
- 《OD大数据实战》Kafka入门实例
官网: 参考文档: Kafka入门经典教程 Kafka工作原理详解 一.安装zookeeper 1. 下载zookeeper-3.4.5-cdh5.3.6.tar.gz 下载地址为: http://a ...
- 《OD大数据实战》Flume入门实例
一.netcat source + memory channel + logger sink 1. 修改配置 1)修改$FLUME_HOME/conf下的flume-env.sh文件,修改内容如下 e ...
- 《OD大数据实战》Mahout入门实例
一.环境搭建 1. 下载 mahout-0.9-cdh5.3.6.tar.gz 2. 解压 3. mahout org.apache.mahout.clustering.syntheticcontro ...
- 《OD大数据实战》Spark入门实例
一.环境搭建 1. 编译spark 1.3.0 1)安装apache-maven-3.0.5 2)下载并解压 spark-1.3.0.tgz 3)修改make-distribution.sh VER ...
随机推荐
- 【bzoj1009】[HNOI2008]GT考试
1009: [HNOI2008]GT考试 Time Limit: 1 Sec Memory Limit: 162 MBSubmit: 3018 Solved: 1856[Submit][Statu ...
- 如何撰写SCI论文的讨论部分?——经典结构 – 俗称“倒漏斗型。
- 基于jQuery很牛X的批量上传插件
上传功能应该是每个网站必备的工具之一,因此出现了出现了很多各式各样的上传插件! 本文基于个人经验和使用从插件的:交互体验,易用性,文档,美观度出发,为大家推荐三款很NX的批量上传插件! 下面三款插件的 ...
- ExtJs之字段集FieldSet
//Ext.form.FieldSet扩展自Ext.container.Container.其优点就是把相同字段集中在一起,在外面字段外面加了个线"围住"他们. // ...
- CRF++中文分词使用指南
http://blog.csdn.net/marising/article/details/5769653 前段时间写了中文分词的一些记录里面提到了CRF的分词方法,近段时间又研究了一下,特把方法写下 ...
- CF444C DZY Loves Colors
考试完之后打的第一场CF,异常惨烈呀,又只做出了一题了.A题呆滞的看了很久,领悟到了出题者的暗示,应该就是两个点的时候最大吧,不然的话这题肯定特别难敲,YY一发交上去然后就过了.然后就在不停地YY B ...
- 【剑指offer】题目38 数字在排序数组中出现的次数
思路: 应该是用二分查找分别找到该数字第一次和最后一次出现的位置,相减即可.O(logn) int findLeft(int a[], int n, int num) { , r = n - ; wh ...
- iOS工程预编译文件的创建
在搜索 添加工程名/自己的pch文件名记住加后缀
- SharePoint Server 2007 简体中文下载
SharePoint Server 2007 简体中文下载 2010-12-16 10:56 正式版key SN: Tkjcb-3wkhk-2ty2t-qymk2-9xm2y 这个版本也是通过Key来 ...
- 10个最佳的网站和App开发工具
这个世界充满了创新,开发的激情和决心是实现更高目标的关键因素.在网站开发中,毫无疑问,工具和可用的在线网页和 app 设计资源,发挥了重要的作用. 下面我们将带来一些网站和 app 的最佳工具. ...