调用文件系统(FS)Shell命令应使用bin/hadoop fs <args>的形式。所有的的FS shell命令使用URI路径作为参数。URI路径详解点击这里。

1、cat

说明:将路径指定文件的内容输出到stdout。
用法:hadoop fs -cat URI [URI …]
范例:
hadoop fs -cat hdfs://host1:port1/file1 hdfs://host2:port2/file2
hadoop fs -cat file:///file3/user/hadoop/file4
返回值:成功返回0,失败返回-1。

2、chgrp

说明:改变文件所属的组。使用-R将使改变在目录结构下递归进行。命令的使用者必须是文件的所有者或者超级用户。
用法:hadoop fs -chgrp [-R] GROUP URI [URI …]
范例:hadoop fs -chgrp -R hadoop /user/hadoop/

3、chmod

说明:改变文件的权限。使用-R将使改变在目录结构下递归进行。命令的使用者必须是文件的所有者或者超级用户。
用法:hadoop fs -chmod [-R] URI [URI …]
范例:hadoop fs -chmod -R 744 /user/hadoop/

4、chown

说明:改变文件的拥有者。使用-R将使改变在目录结构下递归进行。命令的使用者必须是超级用户。
用法:hadoop fs -chown [-R] [OWNER][:[GROUP]] URI [URI ]
范例:hadoop fs -chmod -R hadoop /user/hadoop/

5、copyFromLocal(本地到hdfs)

说明:除了限定源路径是一个本地文件外,和put命令相似。
用法:hadoop fs -copyFromLocal <localsrc> URI

6、copyToLocal(hdfs到本地)

说明:除了限定目标路径是一个本地文件外,和get命令类似。
用法:hadoop fs -copyToLocal [-ignorecrc] [-crc] URI <localdst>

7、cp

说明:将文件从源路径复制到目标路径。这个命令允许有多个源路径,此时目标路径必须是一个目录。
用法:hadoop fs -cp URI [URI …] <dest>
范例:
hadoop fs -cp /user/hadoop/file1 /user/hadoop/file2
hadoop fs -cp /user/hadoop/file1 /user/hadoop/file2 /user/hadoop/dir
返回值:成功返回0,失败返回-1。

8、du

说明:显示目录中所有文件的大小,或者当只指定一个文件时,显示此文件的大小。
用法:hadoop fs -du URI [URI …]
范例:
hadoop fs -du /user/hadoop/dir1 /user/hadoop/file1 hdfs://host:port/user/hadoop/dir1

查看hbase所有文件的大小
hadoop fs -du hdfs://master:54310/hbase

返回值:成功返回0,失败返回-1。

9、dus

说明:显示文件的大小。
用法:hadoop fs -dus <args>

10、expunge

说明:清空回收站。
用法:hadoop fs -expunge

11、get(hdfs到本地)

说明:复制文件到本地文件系统。可用-ignorecrc选项复制CRC校验失败的文件。使用-crc选项复制文件以及CRC信息。
用法:hadoop fs -get [-ignorecrc] [-crc] <src> <localdst>
范例:
hadoop fs -get /user/hadoop/file localfile
hadoop fs -get hdfs://host:port/user/hadoop/file localfile
返回值:成功返回0,失败返回-1。

12、getmerge


说明:接受一个源目录和一个目标文件作为输入,并且将源目录中所有的文件连接成本地目标文件。addnl是可选的,用于指定在每个文件结尾添加一个换行符。
用法:hadoop fs -getmerge <src> <localdst> [addnl]

13、ls


用法:hadoop fs -ls <args>
说明:
(1).如果是文件,则按照如下格式返回文件信息:
文件名 <副本数> 文件大小 修改日期 修改时间 权限 用户ID 组ID
(2).如果是目录,则返回它直接子文件的一个列表,就像在Unix中一样。目录返回列表的信息如下:
目录名 <dir> 修改日期 修改时间 权限 用户ID 组ID
范例:
hadoop fs -ls /user/hadoop/file1 /user/hadoop/file2 hdfs://host:port/user/hadoop/dir1 /nonexistentfile
返回值:成功返回0,失败返回-1。

14、lsr


用法:hadoop fs -lsr <args>
说明:ls命令的递归版本。类似于Unix中的ls -R。

15、mkdir

说明:接受路径指定的uri作为参数,创建这些目录。其行为类似于Unix的mkdir -p,它会创建路径中的各级父目录。
用法:hadoop fs -mkdir <paths>
范例:
hadoop fs -mkdir /user/hadoop/dir1 /user/hadoop/dir2
hadoop fs -mkdir hdfs://host1:port1/user/hadoop/dir hdfs://host2:port2/user/hadoop/dir
返回值:成功返回0,失败返回-1。

16、movefromLocal

说明:输出一个”not implemented“信息。
用法:dfs -moveFromLocal <src> <dst>

17、mv


说明:将文件从源路径移动到目标路径。这个命令允许有多个源路径,此时目标路径必须是一个目录。不允许在不同的文件系统间移动文件。
用法:hadoop fs -mv URI [URI …] <dest>
范例:
hadoop fs -mv /user/hadoop/file1 /user/hadoop/file2
hadoop fs -mv hdfs://host:port/file1 hdfs://host:port/file2 hdfs://host:port/file3 hdfs://host:port/dir1
返回值:成功返回0,失败返回-1。

18、put

说明:从本地文件系统中复制单个或多个源路径到目标文件系统。也支持从标准输入中读取输入写入目标文件系统。
用法:hadoop fs -put <localsrc> … <dst>
范例:
hadoop fs -put localfile /user/hadoop/hadoopfile
hadoop fs -put localfile1 localfile2 /user/hadoop/hadoopdir
hadoop fs -put localfile hdfs://host:port/hadoop/hadoopfile
hadoop fs -put – hdfs://host:port/hadoop/hadoopfile
从标准输入中读取输入。
返回值:成功返回0,失败返回-1。

19、rm

说明:删除指定的文件。只删除非空目录和文件。请参考rmr命令了解递归删除。
用法:hadoop fs -rm URI [URI …]
范例:
hadoop fs -rm hdfs://host:port/file /user/hadoop/emptydir
返回值:成功返回0,失败返回-1。

20、rmr

说明:delete的递归版本。
用法:hadoop fs -rmr URI [URI …]
范例:
hadoop fs -rmr /user/hadoop/dir
hadoop fs -rmr hdfs://host:port/user/hadoop/dir
返回值:成功返回0,失败返回-1。

21、setrep

说明:改变一个文件的副本系数。-R选项用于递归改变目录下所有文件的副本系数。
用法:hadoop fs -setrep [-R] <path>
范例:
hadoop fs -setrep -w 3 -R /user/hadoop/dir1
返回值:成功返回0,失败返回-1。

22、stat

说明:返回指定路径的统计信息。
用法:hadoop fs -stat URI [URI …]
范例:
hadoop fs -stat path
返回值:成功返回0,失败返回-1。

23、tail

用法:将文件尾部1K字节的内容输出到stdout。支持-f选项,行为和Unix中一致。
用法:hadoop fs -tail [-f] URI
范例:
hadoop fs -tail pathname
返回值:成功返回0,失败返回-1。

24、test

用法:hadoop fs -test -[ezd] URI
选项:
-e 检查文件是否存在。如果存在则返回0。
-z 检查文件是否是0字节。如果是则返回0。
-d 如果路径是个目录,则返回1,否则返回0。
范例:
hadoop fs -test -e filename

25、text

说明:将源文件输出为文本格式。允许的格式是zip和TextRecordInputStream。
用法:hadoop fs -text <src>

26、touchz

说明:创建一个0字节的空文件。
用法:hadoop fs -touchz URI [URI …]
范例:
hadoop -touchz pathname
返回值:成功返回0,失败返回-1。

更多请参考官方文档: Hadoop官方中文文档

附:Hadoop官方中文API_PDF格式

Hadoop基本命令详解的更多相关文章

  1. Hadoop Pipeline详解[摘抄]

    最近使用公司内部的一个框架写map  reduce发现没有封装hadoop streaming这些东西,查了下pipeline相关的东西 Hadoop Pipeline详解 20. Aug / had ...

  2. Hadoop Streaming详解

    一: Hadoop Streaming详解 1.Streaming的作用 Hadoop Streaming框架,最大的好处是,让任何语言编写的map, reduce程序能够在hadoop集群上运行:m ...

  3. hadoop框架详解

    Hadoop框架详解 Hadoop项目主要包括以下四个模块 ◆ Hadoop Common: 为其他Hadoop模块提供基础设施 ◆ Hadoop HDFS: 一个高可靠.高吞吐量的分布式文件系统 ◆ ...

  4. Python API 操作Hadoop hdfs详解

    1:安装 由于是windows环境(linux其实也一样),只要有pip或者setup_install安装起来都是很方便的 >pip install hdfs 2:Client——创建集群连接 ...

  5. MongoDb进阶实践之三 Mongodb基本命令详解

    一.引言              从今天开始,我要正式开始介绍MongoDB的使用方法了.在此之前,我用了两篇文章分别介绍了如何在Linux系统和Windows系统上安装和配置MongoDB系统.如 ...

  6. linux系统运维常用基本命令详解

      1.ls 文件属性:  -:普通文件  d:目录文件  b:块设备  c:字符设备文件  l:符号连接文件  p:命令管道  s:套接字文件  文件权限: 9位数字,每3位一组  文件硬链接次数  ...

  7. hadoop shell 详解

    概述  所有的hadoop命令均由bin/hadoop脚本引发.不指定参数运行hadoop脚本会打印所有命令的描述.  用法: hadoop [--config confdir] [COMMAND] ...

  8. Hadoop配置文件详解

    1       获取默认配置 配置hadoop,主要是配置core-site.xml,hdfs-site.xml,mapred-site.xml三个配置文件,默认下来,这些配置文件都是空的,所以很难知 ...

  9. Hadoop实战之二~ hadoop作业调度详解(1)

    对Hadoop的最感兴趣的地方,也就在于Hadoop的作业调度了,在正式介绍如何搭建Hadoop之前,深入理解一下Hadoop的作业调度很有必要.我们不一定能用得上Hadoop,但是如果理通顺Hado ...

随机推荐

  1. ASP.NET MVC IOC 之AutoFac

    ASP.NET MVC IOC 之AutoFac攻略 一.为什么使用AutoFac? 之前介绍了Unity和Ninject两个IOC容器,但是发现园子里用AutoFac的貌似更为普遍,于是捯饬了两天, ...

  2. Varnish 4.0

    Varnish 4.0 实战   简介 Varnish 是一款高性能且开源的反向代理服务器和 HTTP 加速器,其采用全新的软件体系机构,和现在的硬件体系紧密配合,与传统的 squid 相比,varn ...

  3. Windows 8 Store Apps

    重新想象 Windows 8 Store Apps 系列文章索引 Posted on 2013-11-18 08:33 webabcd 阅读(672) 评论(3) 编辑 收藏 [源码下载] 重新想象 ...

  4. [置顶] Weblogic节点管理

    配置节点管理之后能方便管理,可以在控制台启动停止被管服务器,一般配置步骤:创建受管服务器,创建machine,屏蔽SSL主机名验证,修改nodemanager.properties,启动nodeman ...

  5. js框架漫谈

    现在实际项目中可供选择的javascript框架很多,热门的有jquery,dojo,mootools,ext等.这些框架按照不同的标准有不同的分类方法,比如按照扩展方式便可分为prototype式的 ...

  6. StringEscapeUtils.unescapeHtml的使用

    在做代码高亮时,从数据库中取出代码如下(节选): <pre class="brush: java;"> 需要的应该是<pre class=\"brush ...

  7. 从UI开始

    虚拟化平台cloudstack(8)——从UI开始   UI ucloudstack采用的是前后端分离的架构,就是说前端可以选择使用web.swing甚至其它的界面,都可以. 我们来看cloudsta ...

  8. 一步步学习Python-django开发-Mac下搭建Python-Django环境

    首先确定学习那一个版本,以之前对Python的接触,Python2.x 的版本仍然占据很大的市场.但作为初学者我还是决定学习新的版本,相信未来会逐渐转向3.x版本的. 其实搭建Python不是一件很难 ...

  9. 数模学习笔记(四)——AHP

    1.层次分析法是对复杂.较为模糊的问题作出决策的简易方法. 2.步骤: (i)建立递阶层次结构模型:最高层(目标层),中间层(准则层),最底层(措施层) (ii)构造出各层次中的所有判断矩阵 各准则在 ...

  10. 简单的理解deflate算法

    简单的理解deflate算法 最近做压缩算法. 用到了deflate压缩算法,  找了很多资料,  这篇文章算是讲的比较易懂的, 这篇文章不长,但却浅显易懂, 基本上涵盖了我想要知道的所有要点. 翻译 ...