HDFS文件操作的基本格式是:

 bin/hadoop dfs -cmd <args>

1. cat

 $ hadoop dfs -cat URI [URI …]
#将参数所指示的文件的内容输出到stdout #example:
$ hadoop dfs -cat file:///file2 /user/hadoop/file4

2.cp

 $ hadoop dfs -cp URI [URI …] <dest>
#将文件拷贝到目标路径中。如果 <dest>为目录的话,可以将多个文件拷贝到该目录下 #example:
$ hadoop dfs -cp /user/hadoop/file1 /user/hadoop/file2 /user/hadoop/dir

3.get

 $ hadoop dfs -get [-ignorecrc] [-crc] <src><localdst>
#将文件拷贝到本地文件系统 #example:
$ hadoop dfs -get /user/hadoop/file localfile

4.ls

 $ hadoop dfs -ls <args>
#对于一个文件,该命令返回的文件状态以如下格式列出:
#文件权限、副本个数、用户ID、组ID、文件大小、最近一次修改日期、最近一次修改时间、文件名
#对于一个目录,结果格式:
#文件权限,用户ID,组ID,最近一次修改日期,最近一次修改时间,文件名 #example:
$ hadoop dfs -ls /user/hadoop/file1

5.lsr

 $ hadoop dfs -lsr <args>
#在整个目录下递归执行ls

6.mkdir

 $ hadoop dfs -mkdir <paths>
#以<paths>中的URI作为参数,创建目录 #example:
$ hadoop dfs -mkdir /user/hadoop/dir1 /user/hadoop/dir2

7.put

 $ hadoop dfs -put <localsrc> … <dst>
#将单个的源文件src或者多个源文件从本地文件系统拷贝到目标文件系统中。 #example:
$ hadoop dfs -put localfile1 localfile2 /user/hadoop/hadoopdir

8.rm

 $ hadoop dfs -rm [-skipTrash] URI [URI …]
#删除参数指定的文件,参数可以有多个。只删除文件和非空目录。如果指定了-skipTrash选项,那么在回收站可用的情况下,跳过回收站而直接将文件删除 #example:
$ hadoop dfs -rm hdfs://nn.example.com/file /user/hadoop/emptydir

9.rmr

 $ hadoop dfs -rmr [-skipTrash] URI [URI …]
#删除操作的递归版本,即递归删除所有子目录下的文件 #example:
$ hadoop dfs -rmr /user/hadoop/dir

HDFS文件操作命令手册的更多相关文章

  1. Hadoop之HDFS文件操作常有两种方式(转载)

    摘要:Hadoop之HDFS文件操作常有两种方式,命令行方式和JavaAPI方式.本文介绍如何利用这两种方式对HDFS文件进行操作. 关键词:HDFS文件    命令行     Java API HD ...

  2. 简单hdfs相关操作命令

    HDFS常用操作命令 启动hdfs #start-all.sh 查看hdfs的配置文件 #cat hdfs-site.sh #hadoop fs -put /soft/jdk / #HDFS上传文件命 ...

  3. HDFS文件操作(命令行)

    HDFS是一种分布式文件系统,为MapReduce这种框架下的海量数据分布式处理而设计. Hadoop之HDFS文件操作常有两种方式,一种是命令行方式,即Hadoop提供了一套与Linux文件命令类似 ...

  4. Hadoop之HDFS文件操作

    摘要:Hadoop之HDFS文件操作常有两种方式.命令行方式和JavaAPI方式.本文介绍怎样利用这两种方式对HDFS文件进行操作. 关键词:HDFS文件    命令行     Java API HD ...

  5. [bigdata] 使用Flume hdfs sink, hdfs文件未关闭的问题

    现象: 执行mapreduce任务时失败 通过hadoop fsck -openforwrite命令查看发现有文件没有关闭. [root@com ~]# hadoop fsck -openforwri ...

  6. CentOS常用的文件操作命令

    CentOS下面常用的文件操作命令: cd pwd NO1. 显示当前路径 [root@rehat root]# pwd NO2. 返回用户主目录 [root@rehat root]# cd NO3. ...

  7. HDFS文件和HIVE表的一些操作

    1. hadoop fs -ls  可以查看HDFS文件 后面不加目录参数的话,默认当前用户的目录./user/当前用户 $ hadoop fs -ls 16/05/19 10:40:10 WARN ...

  8. linux 文件操作命令

    目录操作命令 命令格式 命令 [-选项] [-参数] ls -la /etc 有多个选项时可以合并 ls命令: -a (all) 显示所有文件,包括隐藏文件,那是用.开头的文件 为什么要隐藏(这是个系 ...

  9. Spark读取HDFS文件,文件格式为GB2312,转换为UTF-8

    package iie.udps.example.operator.spark; import scala.Tuple2; import org.apache.hadoop.conf.Configur ...

随机推荐

  1. 成都Uber优步司机奖励政策(4月4日)

    滴快车单单2.5倍,注册地址:http://www.udache.com/ 如何注册Uber司机(全国版最新最详细注册流程)/月入2万/不用抢单:http://www.cnblogs.com/mfry ...

  2. vim基本命令笔记

    两种模式 -编辑模式:可以进行正常的编辑操作 左下方显示 -- INSERT -- "在命令模式下输入 i 能够进入编辑模式" -命令模式:可以通过命令 左下方什么也不显示 &qu ...

  3. leetcode-最长无重复字符的子串

    参考他的人代码:https://blog.csdn.net/littlebai07/article/details/79100081 给定一个字符串,找出不含有重复字符的最长子串的长度. 示例 1: ...

  4. 将Render博客搬至GIT(偷懒)

    SmallEngine 一个特别小的研究引擎[用于各种实验] 框架上设计上采用Unreal.Unity的设计思路[偷懒了] https://github.com/daozhangXDZ/DZSmall ...

  5. fp-growth树创建代码及详细注释

    事务集过滤重排: #FP树节点结构 class treeNode: def __init__(self,nameValue,numOccur,parentNode): self.name=nameVa ...

  6. Java学习个人备忘录之面向对象概念

    对象,其实就是该类事物实实在在存在的个体. 类与对象之间的关系?类:一类事物的描述.对象:该类事物的实例.在java中通过new来创建的.举例来说,类就是汽车说明书,类只能在理论上造一辆汽车,并且这个 ...

  7. Java数组课程作业

    设计思路:生成随机数,赋值给数组.再将其求和输出 程序流程图: 源程序代码: import javax.swing.JOptionPane; public class Test { public st ...

  8. 你代码写得这么丑,一定是因为你长得不好看----panboo第一篇博客

    一.个人介绍 我叫潘博,软嵌162,学号1613072055. 以“panboo”名称混迹于各大开源IT论坛与博客. 除了编程,我的最大爱好是篮球与健身,热衷于各种IT技术与运动. 我做过的软件项目有 ...

  9. ACM 第十八天

    数学基础(卷积,FFT,FWT,FMT,鸽巢原理,群论,哈里亚余数,哈里亚计数定理,组合数学,LVG定理,期望DP,期望点贡献问题) 练习题: A - Necklace of Beads Beads ...

  10. TCP系列23—重传—13、RACK重传

    一.RACK概述 RACK(Recent ACKnowledgment)是一种新的基于时间的丢包探测算法,RACK的目的是取代传统的基于dupthresh门限的各种快速重传及其变种.前面介绍的各种基于 ...