Hadoop基本命令详解
调用文件系统(FS)Shell命令应使用bin/hadoop fs <args>的形式。所有的的FS shell命令使用URI路径作为参数。URI路径详解点击这里。
1、cat
说明:将路径指定文件的内容输出到stdout。
用法:hadoop fs -cat URI [URI …]
范例:
hadoop fs -cat hdfs://host1:port1/file1 hdfs://host2:port2/file2
hadoop fs -cat file:///file3/user/hadoop/file4
返回值:成功返回0,失败返回-1。
2、chgrp
说明:改变文件所属的组。使用-R将使改变在目录结构下递归进行。命令的使用者必须是文件的所有者或者超级用户。
用法:hadoop fs -chgrp [-R] GROUP URI [URI …]
范例:hadoop fs -chgrp -R hadoop /user/hadoop/
3、chmod
说明:改变文件的权限。使用-R将使改变在目录结构下递归进行。命令的使用者必须是文件的所有者或者超级用户。
用法:hadoop fs -chmod [-R] URI [URI …]
范例:hadoop fs -chmod -R 744 /user/hadoop/
4、chown
说明:改变文件的拥有者。使用-R将使改变在目录结构下递归进行。命令的使用者必须是超级用户。
用法:hadoop fs -chown [-R] [OWNER][:[GROUP]] URI [URI ]
范例:hadoop fs -chmod -R hadoop /user/hadoop/
5、copyFromLocal(本地到hdfs)
说明:除了限定源路径是一个本地文件外,和put命令相似。
用法:hadoop fs -copyFromLocal <localsrc> URI
6、copyToLocal(hdfs到本地)
说明:除了限定目标路径是一个本地文件外,和get命令类似。
用法:hadoop fs -copyToLocal [-ignorecrc] [-crc] URI <localdst>
7、cp
说明:将文件从源路径复制到目标路径。这个命令允许有多个源路径,此时目标路径必须是一个目录。
用法:hadoop fs -cp URI [URI …] <dest>
范例:
hadoop fs -cp /user/hadoop/file1 /user/hadoop/file2
hadoop fs -cp /user/hadoop/file1 /user/hadoop/file2 /user/hadoop/dir
返回值:成功返回0,失败返回-1。
8、du
说明:显示目录中所有文件的大小,或者当只指定一个文件时,显示此文件的大小。
用法:hadoop fs -du URI [URI …]
范例:
hadoop fs -du /user/hadoop/dir1 /user/hadoop/file1 hdfs://host:port/user/hadoop/dir1查看hbase所有文件的大小
hadoop fs -du hdfs://master:54310/hbase返回值:成功返回0,失败返回-1。
9、dus
说明:显示文件的大小。
用法:hadoop fs -dus <args>
10、expunge
说明:清空回收站。
用法:hadoop fs -expunge
11、get(hdfs到本地)
说明:复制文件到本地文件系统。可用-ignorecrc选项复制CRC校验失败的文件。使用-crc选项复制文件以及CRC信息。
用法:hadoop fs -get [-ignorecrc] [-crc] <src> <localdst>
范例:
hadoop fs -get /user/hadoop/file localfile
hadoop fs -get hdfs://host:port/user/hadoop/file localfile
返回值:成功返回0,失败返回-1。
12、getmerge
说明:接受一个源目录和一个目标文件作为输入,并且将源目录中所有的文件连接成本地目标文件。addnl是可选的,用于指定在每个文件结尾添加一个换行符。
用法:hadoop fs -getmerge <src> <localdst> [addnl]
13、ls
用法:hadoop fs -ls <args>
说明:
(1).如果是文件,则按照如下格式返回文件信息:
文件名 <副本数> 文件大小 修改日期 修改时间 权限 用户ID 组ID
(2).如果是目录,则返回它直接子文件的一个列表,就像在Unix中一样。目录返回列表的信息如下:
目录名 <dir> 修改日期 修改时间 权限 用户ID 组ID
范例:
hadoop fs -ls /user/hadoop/file1 /user/hadoop/file2 hdfs://host:port/user/hadoop/dir1 /nonexistentfile
返回值:成功返回0,失败返回-1。
14、lsr
用法:hadoop fs -lsr <args>
说明:ls命令的递归版本。类似于Unix中的ls -R。
15、mkdir
说明:接受路径指定的uri作为参数,创建这些目录。其行为类似于Unix的mkdir -p,它会创建路径中的各级父目录。
用法:hadoop fs -mkdir <paths>
范例:
hadoop fs -mkdir /user/hadoop/dir1 /user/hadoop/dir2
hadoop fs -mkdir hdfs://host1:port1/user/hadoop/dir hdfs://host2:port2/user/hadoop/dir
返回值:成功返回0,失败返回-1。
16、movefromLocal
说明:输出一个”not implemented“信息。
用法:dfs -moveFromLocal <src> <dst>
17、mv
说明:将文件从源路径移动到目标路径。这个命令允许有多个源路径,此时目标路径必须是一个目录。不允许在不同的文件系统间移动文件。
用法:hadoop fs -mv URI [URI …] <dest>
范例:
hadoop fs -mv /user/hadoop/file1 /user/hadoop/file2
hadoop fs -mv hdfs://host:port/file1 hdfs://host:port/file2 hdfs://host:port/file3 hdfs://host:port/dir1
返回值:成功返回0,失败返回-1。
18、put
说明:从本地文件系统中复制单个或多个源路径到目标文件系统。也支持从标准输入中读取输入写入目标文件系统。
用法:hadoop fs -put <localsrc> … <dst>
范例:
hadoop fs -put localfile /user/hadoop/hadoopfile
hadoop fs -put localfile1 localfile2 /user/hadoop/hadoopdir
hadoop fs -put localfile hdfs://host:port/hadoop/hadoopfile
hadoop fs -put – hdfs://host:port/hadoop/hadoopfile
从标准输入中读取输入。
返回值:成功返回0,失败返回-1。
19、rm
说明:删除指定的文件。只删除非空目录和文件。请参考rmr命令了解递归删除。
用法:hadoop fs -rm URI [URI …]
范例:
hadoop fs -rm hdfs://host:port/file /user/hadoop/emptydir
返回值:成功返回0,失败返回-1。
20、rmr
说明:delete的递归版本。
用法:hadoop fs -rmr URI [URI …]
范例:
hadoop fs -rmr /user/hadoop/dir
hadoop fs -rmr hdfs://host:port/user/hadoop/dir
返回值:成功返回0,失败返回-1。
21、setrep
说明:改变一个文件的副本系数。-R选项用于递归改变目录下所有文件的副本系数。
用法:hadoop fs -setrep [-R] <path>
范例:
hadoop fs -setrep -w 3 -R /user/hadoop/dir1
返回值:成功返回0,失败返回-1。
22、stat
说明:返回指定路径的统计信息。
用法:hadoop fs -stat URI [URI …]
范例:
hadoop fs -stat path
返回值:成功返回0,失败返回-1。
23、tail
用法:将文件尾部1K字节的内容输出到stdout。支持-f选项,行为和Unix中一致。
用法:hadoop fs -tail [-f] URI
范例:
hadoop fs -tail pathname
返回值:成功返回0,失败返回-1。
24、test
用法:hadoop fs -test -[ezd] URI
选项:
-e 检查文件是否存在。如果存在则返回0。
-z 检查文件是否是0字节。如果是则返回0。
-d 如果路径是个目录,则返回1,否则返回0。
范例:
hadoop fs -test -e filename
25、text
说明:将源文件输出为文本格式。允许的格式是zip和TextRecordInputStream。
用法:hadoop fs -text <src>
26、touchz
说明:创建一个0字节的空文件。
用法:hadoop fs -touchz URI [URI …]
范例:
hadoop -touchz pathname
返回值:成功返回0,失败返回-1。
更多请参考官方文档: Hadoop官方中文文档
Hadoop基本命令详解的更多相关文章
- Hadoop Pipeline详解[摘抄]
最近使用公司内部的一个框架写map reduce发现没有封装hadoop streaming这些东西,查了下pipeline相关的东西 Hadoop Pipeline详解 20. Aug / had ...
- Hadoop Streaming详解
一: Hadoop Streaming详解 1.Streaming的作用 Hadoop Streaming框架,最大的好处是,让任何语言编写的map, reduce程序能够在hadoop集群上运行:m ...
- hadoop框架详解
Hadoop框架详解 Hadoop项目主要包括以下四个模块 ◆ Hadoop Common: 为其他Hadoop模块提供基础设施 ◆ Hadoop HDFS: 一个高可靠.高吞吐量的分布式文件系统 ◆ ...
- Python API 操作Hadoop hdfs详解
1:安装 由于是windows环境(linux其实也一样),只要有pip或者setup_install安装起来都是很方便的 >pip install hdfs 2:Client——创建集群连接 ...
- MongoDb进阶实践之三 Mongodb基本命令详解
一.引言 从今天开始,我要正式开始介绍MongoDB的使用方法了.在此之前,我用了两篇文章分别介绍了如何在Linux系统和Windows系统上安装和配置MongoDB系统.如 ...
- linux系统运维常用基本命令详解
1.ls 文件属性: -:普通文件 d:目录文件 b:块设备 c:字符设备文件 l:符号连接文件 p:命令管道 s:套接字文件 文件权限: 9位数字,每3位一组 文件硬链接次数 ...
- hadoop shell 详解
概述 所有的hadoop命令均由bin/hadoop脚本引发.不指定参数运行hadoop脚本会打印所有命令的描述. 用法: hadoop [--config confdir] [COMMAND] ...
- Hadoop配置文件详解
1 获取默认配置 配置hadoop,主要是配置core-site.xml,hdfs-site.xml,mapred-site.xml三个配置文件,默认下来,这些配置文件都是空的,所以很难知 ...
- Hadoop实战之二~ hadoop作业调度详解(1)
对Hadoop的最感兴趣的地方,也就在于Hadoop的作业调度了,在正式介绍如何搭建Hadoop之前,深入理解一下Hadoop的作业调度很有必要.我们不一定能用得上Hadoop,但是如果理通顺Hado ...
随机推荐
- ASP.NET MVC IOC 之AutoFac
ASP.NET MVC IOC 之AutoFac攻略 一.为什么使用AutoFac? 之前介绍了Unity和Ninject两个IOC容器,但是发现园子里用AutoFac的貌似更为普遍,于是捯饬了两天, ...
- Varnish 4.0
Varnish 4.0 实战 简介 Varnish 是一款高性能且开源的反向代理服务器和 HTTP 加速器,其采用全新的软件体系机构,和现在的硬件体系紧密配合,与传统的 squid 相比,varn ...
- Windows 8 Store Apps
重新想象 Windows 8 Store Apps 系列文章索引 Posted on 2013-11-18 08:33 webabcd 阅读(672) 评论(3) 编辑 收藏 [源码下载] 重新想象 ...
- [置顶] Weblogic节点管理
配置节点管理之后能方便管理,可以在控制台启动停止被管服务器,一般配置步骤:创建受管服务器,创建machine,屏蔽SSL主机名验证,修改nodemanager.properties,启动nodeman ...
- js框架漫谈
现在实际项目中可供选择的javascript框架很多,热门的有jquery,dojo,mootools,ext等.这些框架按照不同的标准有不同的分类方法,比如按照扩展方式便可分为prototype式的 ...
- StringEscapeUtils.unescapeHtml的使用
在做代码高亮时,从数据库中取出代码如下(节选): <pre class="brush: java;"> 需要的应该是<pre class=\"brush ...
- 从UI开始
虚拟化平台cloudstack(8)——从UI开始 UI ucloudstack采用的是前后端分离的架构,就是说前端可以选择使用web.swing甚至其它的界面,都可以. 我们来看cloudsta ...
- 一步步学习Python-django开发-Mac下搭建Python-Django环境
首先确定学习那一个版本,以之前对Python的接触,Python2.x 的版本仍然占据很大的市场.但作为初学者我还是决定学习新的版本,相信未来会逐渐转向3.x版本的. 其实搭建Python不是一件很难 ...
- 数模学习笔记(四)——AHP
1.层次分析法是对复杂.较为模糊的问题作出决策的简易方法. 2.步骤: (i)建立递阶层次结构模型:最高层(目标层),中间层(准则层),最底层(措施层) (ii)构造出各层次中的所有判断矩阵 各准则在 ...
- 简单的理解deflate算法
简单的理解deflate算法 最近做压缩算法. 用到了deflate压缩算法, 找了很多资料, 这篇文章算是讲的比较易懂的, 这篇文章不长,但却浅显易懂, 基本上涵盖了我想要知道的所有要点. 翻译 ...