HDFS文件操作命令手册
HDFS文件操作的基本格式是:
bin/hadoop dfs -cmd <args>
1. cat
$ hadoop dfs -cat URI [URI …]
#将参数所指示的文件的内容输出到stdout #example:
$ hadoop dfs -cat file:///file2 /user/hadoop/file4
2.cp
$ hadoop dfs -cp URI [URI …] <dest>
#将文件拷贝到目标路径中。如果 <dest>为目录的话,可以将多个文件拷贝到该目录下 #example:
$ hadoop dfs -cp /user/hadoop/file1 /user/hadoop/file2 /user/hadoop/dir
3.get
$ hadoop dfs -get [-ignorecrc] [-crc] <src><localdst>
#将文件拷贝到本地文件系统 #example:
$ hadoop dfs -get /user/hadoop/file localfile
4.ls
$ hadoop dfs -ls <args>
#对于一个文件,该命令返回的文件状态以如下格式列出:
#文件权限、副本个数、用户ID、组ID、文件大小、最近一次修改日期、最近一次修改时间、文件名
#对于一个目录,结果格式:
#文件权限,用户ID,组ID,最近一次修改日期,最近一次修改时间,文件名 #example:
$ hadoop dfs -ls /user/hadoop/file1
5.lsr
$ hadoop dfs -lsr <args>
#在整个目录下递归执行ls
6.mkdir
$ hadoop dfs -mkdir <paths>
#以<paths>中的URI作为参数,创建目录 #example:
$ hadoop dfs -mkdir /user/hadoop/dir1 /user/hadoop/dir2
7.put
$ hadoop dfs -put <localsrc> … <dst>
#将单个的源文件src或者多个源文件从本地文件系统拷贝到目标文件系统中。 #example:
$ hadoop dfs -put localfile1 localfile2 /user/hadoop/hadoopdir
8.rm
$ hadoop dfs -rm [-skipTrash] URI [URI …]
#删除参数指定的文件,参数可以有多个。只删除文件和非空目录。如果指定了-skipTrash选项,那么在回收站可用的情况下,跳过回收站而直接将文件删除 #example:
$ hadoop dfs -rm hdfs://nn.example.com/file /user/hadoop/emptydir
9.rmr
$ hadoop dfs -rmr [-skipTrash] URI [URI …]
#删除操作的递归版本,即递归删除所有子目录下的文件 #example:
$ hadoop dfs -rmr /user/hadoop/dir
HDFS文件操作命令手册的更多相关文章
- Hadoop之HDFS文件操作常有两种方式(转载)
摘要:Hadoop之HDFS文件操作常有两种方式,命令行方式和JavaAPI方式.本文介绍如何利用这两种方式对HDFS文件进行操作. 关键词:HDFS文件 命令行 Java API HD ...
- 简单hdfs相关操作命令
HDFS常用操作命令 启动hdfs #start-all.sh 查看hdfs的配置文件 #cat hdfs-site.sh #hadoop fs -put /soft/jdk / #HDFS上传文件命 ...
- HDFS文件操作(命令行)
HDFS是一种分布式文件系统,为MapReduce这种框架下的海量数据分布式处理而设计. Hadoop之HDFS文件操作常有两种方式,一种是命令行方式,即Hadoop提供了一套与Linux文件命令类似 ...
- Hadoop之HDFS文件操作
摘要:Hadoop之HDFS文件操作常有两种方式.命令行方式和JavaAPI方式.本文介绍怎样利用这两种方式对HDFS文件进行操作. 关键词:HDFS文件 命令行 Java API HD ...
- [bigdata] 使用Flume hdfs sink, hdfs文件未关闭的问题
现象: 执行mapreduce任务时失败 通过hadoop fsck -openforwrite命令查看发现有文件没有关闭. [root@com ~]# hadoop fsck -openforwri ...
- CentOS常用的文件操作命令
CentOS下面常用的文件操作命令: cd pwd NO1. 显示当前路径 [root@rehat root]# pwd NO2. 返回用户主目录 [root@rehat root]# cd NO3. ...
- HDFS文件和HIVE表的一些操作
1. hadoop fs -ls 可以查看HDFS文件 后面不加目录参数的话,默认当前用户的目录./user/当前用户 $ hadoop fs -ls 16/05/19 10:40:10 WARN ...
- linux 文件操作命令
目录操作命令 命令格式 命令 [-选项] [-参数] ls -la /etc 有多个选项时可以合并 ls命令: -a (all) 显示所有文件,包括隐藏文件,那是用.开头的文件 为什么要隐藏(这是个系 ...
- Spark读取HDFS文件,文件格式为GB2312,转换为UTF-8
package iie.udps.example.operator.spark; import scala.Tuple2; import org.apache.hadoop.conf.Configur ...
随机推荐
- linux (rm指令) 及误删除解决
今天在群里看见这一幕: 看到这儿,我们学习一下 这个RM指令 rm命令可以删除一个目录中的一个或多个文件或目录,也可以将某个目录及其下属的所有文件及其子目录均删除掉.对于链接文件,只是删除整个链接文件 ...
- SSM-最新pom.xml
<project xmlns="http://maven.apache.org/POM/4.0.0" xmlns:xsi="http://www.w3.org/20 ...
- 使用Python访问HDFS
最近接触到大数据,对于Skpark和Hadoop的料及都停留在第一次听到这个名词时去搜一把看看大概介绍免得跟不上时代的层次. 在实际读了点别人的代码,又自己写了一些之后,虽然谈不上理解加深,至少对于大 ...
- 第3章 TCP协议详解
第3章 TCP协议详解 3.1 TCP服务的特点 传输协议主要有两个:TCP协议和UDP协议,TCP协议相对于UDP协议的特点是 面向连接使用TCP协议通信的双方必须先建立连接,完成数据交换后,通信双 ...
- 【cookie接口】- jmeter - (请求提示no cookie)
1.虽然 请求成功 响应码 200 ,但是 返回code 1 ,表示接口不成功 2.加入 空的cookie 管理器就可以了 返回 code 0 注意:状态码 200 只是表示请求是成功的 , ...
- Open MPI集群运行
部署完之后,代码也能正确跑起来了,也确实集群分散了.跑一下各种各样的代码,发现了一个错误: $ ~/OpenMpi/bin/mpiexec -np ~/NetWorkTest My rank is M ...
- eos智能合约开发最佳实践
安全问题 1.可能的错误 智能合约终止 限制转账限额 限制速率 有效途径来进行bug修复和提升 2.谨慎发布智能合约 对智能合约进行彻底的测试 并在任何新的攻击手法被发现后及时制止 赏金计划和审计合约 ...
- POJ 2455 Secret Milking Machine(最大流+二分)
Description Farmer John is constructing a new milking machine and wishes to keep it secret as long a ...
- JQuery中each方法实现
each()函数是基本上所有的框架都提供了的一个工具类函数,通过它,你可以遍历对象.数组的属性值并进行处理. jQuery和jQuery对象都实现了该方法,对于jQuery对象,只是把each方法简单 ...
- 软件工程第四周作业之四则运算-C#实现
拿到题目的时候,快放假了,也没心思做.十月七号的一下午大概从两点做到八点半,加上十月八号的十二点半到两点半,做了一共八个半小时,去掉吃饭半个小时那么一共做了八个小时. 逆波兰表达式我是扒的别人代码,没 ...