hadoop hdfs 命令
hdfs命令常用操作:
hdfs帮助
-help [cmd] 显示命令的帮助信息
[hadoop@hadoop-01 ~]$ hdfs dfs -help ls
递归显示当前目录下的所有文件:
[hadoop@hadoop-01 ~]$ hdfs dfs -ls -h /
Found 1 items
drwxrwx--- - hadoop supergroup 0 2017-11-23 13:09 /tmp [hadoop@hadoop-01 ~]$ hdfs dfs -ls -h -R /
drwxrwx--- - hadoop supergroup 0 2017-11-23 13:09 /tmp
drwxrwx--- - hadoop supergroup 0 2017-11-23 13:09 /tmp/hadoop-yarn
drwxrwx--- - hadoop supergroup 0 2017-11-23 13:09 /tmp/hadoop-yarn/staging
drwxrwx--- - hadoop supergroup 0 2017-11-23 13:09 /tmp/hadoop-yarn/staging/history
drwxrwx--- - hadoop supergroup 0 2017-11-23 13:09 /tmp/hadoop-yarn/staging/history/done
drwxrwxrwt - hadoop supergroup 0 2017-11-23 13:09 /tmp/hadoop-yarn/staging/history/done_intermediate
-du 显示目录中所有文件大小:
[hadoop@hadoop-01 ~]$ hdfs dfs -du -s -h /tmp/
0 /tmp
[hadoop@hadoop-01 ~]$
-count计算路径下的目录、文件和字节数
[hadoop@hadoop-01 ~]$ hdfs dfs -count -q -h /tmp/
none inf none inf 6 0 0 /tmp
[hadoop@hadoop-01 ~]$
-mkdir 在指定位置创建一个hdfs目录.
[hadoop@hadoop-01 ~]$ hdfs dfs -mkdir testdhadoop
递归创建目录:
[hadoop@hadoop-01 bin]$ ./hdfs dfs -mkdir -p /test1/test2/test3
#递归查看当前目录下所有文件.
[hadoop@hadoop-01 bin]$ ./hdfs dfs -ls -R /test1
drwxr-xr-x - hadoop supergroup 0 2017-11-23 15:17 /test1/test2
drwxr-xr-x - hadoop supergroup 0 2017-11-23 15:17 /test1/test2/test3
-mv 移动多个文件目录到目标目录,(移动的文件也需要是hdfs目录中存在的文件.)
[hadoop@hadoop-01 ~]$ hdfs dfs -mv /tmp/hadoop-yarn /user/hadoop/testdhadoop
-cp 复制多个dhfs文件到目标目录
[hadoop@hadoop-01 ~]$ hdfs dfs -cp /user/hadoop/testdhadoop /tmp/hadoop-yarn
-put 本地文件复制到hdfs
[hadoop@hadoop-01 ~]$ hdfs dfs -put /etc/passwd /user/hadoop/testdhadoop
-copyFromLocal 与- put 命令相同.
[hadoop@hadoop-01 ~]$ hdfs dfs -copyFromLocal /etc/yum.conf /user/Hadoop
[hadoop@hadoop-01 ~]$ hdfs dfs -ls -R /user/hadoop
drwxr-xr-x - hadoop supergroup 0 2017-11-23 14:37 /user/hadoop/testdhadoop
drwxrwx--- - hadoop supergroup 0 2017-11-23 13:09 /user/hadoop/testdhadoop/hadoop-yarn
drwxrwx--- - hadoop supergroup 0 2017-11-23 13:09 /user/hadoop/testdhadoop/passwd
-rw-r--r-- 2 hadoop supergroup 969 2017-11-23 14:41 /user/hadoop/yum.conf
-moveFromLocal 本地文件移动到 hdfs.
[hadoop@hadoop-01 ~]$ hdfs dfs -mkdir /logs
[hadoop@hadoop-01 ~]$ hdfs dfs -ls -d /logs
drwxr-xr-x - hadoop supergroup 0 2017-11-23 14:47 /logs
[hadoop@hadoop-01 ~]$ hdfs dfs -moveFromLocal test.txt /logs
[hadoop@hadoop-01 ~]$ hdfs dfs -ls -h /logs
Found 1 items
-rw-r--r-- 2 hadoop supergroup 12 2017-11-23 14:49 /logs/test.txt
get [-ignoreCrc] 复制hdfs文件到本地,可以忽略crc校验.
[hadoop@hadoop-01 ~]$ hdfs dfs -get /logs/test.txt /tmp/
- copyToLocal 与- get命令相同 复制dhfs文件到本地.
[hadoop@hadoop-01 bin]$ ./hdfs dfs -copyToLocal /logs/test.txt /home/hadoop/
[hadoop@hadoop-01 ~]$ ls -lh /home/hadoop/
total 16K
drwxrwxr-x. 4 hadoop hadoop 4.0K Nov 23 12:12 dfs
drwxr-xr-x. 11 hadoop hadoop 4.0K Nov 23 12:47 hadoop
-rw-r--r--. 1 hadoop hadoop 12 Nov 23 15:05 test.txt
drwxrwxr-x. 3 hadoop hadoop 4.0K Nov 23 12:48 tmp
- cat 在终端显示文件内容
[hadoop@hadoop-01 /]$ hdfs dfs -cat /logs/test.txt
hello world
[hadoop@hadoop-01 /]$
- text 在终端显示文件内容,将源文件输出为文本格式。允许的格式是zip和TextRecordInputStream.
[hadoop@hadoop-01 bin]$ ./hdfs dfs -text /logs/test.txt
hello world
[hadoop@hadoop-01 /]$ hdfs dfs -tail /logs/part-00000 (查看文件的最后一千行)
[hadoop@hadoop-01 /]$ hdfs dfs -cat /logs/part-00000 | head
- touchz 创建一个hdfs空文件.
[hadoop@hadoop-01 bin]$ ./hdfs dfs -touchz /test1/1.txt
[hadoop@hadoop-01 bin]$ ./hdfs dfs -ls -R /test1
-rw-r--r-- 2 hadoop supergroup 0 2017-11-23 15:20 /test1/1.txt
drwxr-xr-x - hadoop supergroup 0 2017-11-23 15:17 /test1/test2
drwxr-xr-x - hadoop supergroup 0 2017-11-23 15:17 /test1/test2/test3
- getmerge [addnl] 将hdfs源目录中的所有文件排序合并到一个本地文件中,接受一个源目录和一个目标文件作为输入,并且将源目录中所有的文件连接成本地目标文件。addnl是可选的,用于指定在每个文件结尾添加一个换行符.
#将hdfs上的/logs/* 下的所有文件合并下载到本地的/tmp/hello文件中.
[hadoop@hadoop-01 bin]$ ./hdfs dfs -getmerge /logs/* /tmp/hello
[hadoop@hadoop-01 bin]$ cat /tmp/hello
111111111111111111111111
hello world
[hadoop@hadoop-01 bin]$
- grep 从hdfs上过滤包含某个字符的行内容
[hadoop@hadoop-01 bin]$ ./hdfs dfs -cat /logs/* | grep 过滤字段
参考文档:http://blog.csdn.net/zhaojw_420/article/details/53161624
hadoop hdfs 命令的更多相关文章
- hadoop hdfs 命令行 设置文件夹大小的上限 quota:配额
>bin/hdfs dfs -put readme.txt /finance >bin/hdfs dfs -du -s /finance > /finance >bin/hdf ...
- Hadoop HDFS命令
hadoop fs -mkdir 创建HDFS目录 # hadoop fs -mkdir /data Hadoop fs -ls 列出HDFS目录 # hadoop fs -ls /data ha ...
- Docker 安装Hadoop HDFS命令行操作
网上拉取Docker模板,使用singlarities/hadoop镜像 [root@localhost /]# docker pull singularities/hadoop 查看: [root@ ...
- Hadoop HDFS命令学习笔记
cat Usage: hadoop fs -cat [-ignoreCrc] URI [URI ...] Copies source paths to stdout. Options The -ign ...
- 小记---------有关hadoop的HDFS命令行操作
HDFS命令操作 首先需要在xshell启动hadoop start-all.sh or start-hdfs.sh hadoop fs -ls / (显示当前目录下所有文件) h ...
- [转]hadoop hdfs常用命令
FROM : http://www.2cto.com/database/201303/198460.html hadoop hdfs常用命令 hadoop常用命令: hadoop fs 查看H ...
- hadoop/hdfs/yarn 详细命令搬运
转载自文章 http://www.cnblogs.com/davidwang456/p/5074108.html 安装完hadoop后,在hadoop的bin目录下有一系列命令: container- ...
- Hadoop HDFS分布式文件系统 常用命令汇总
引言:我们维护hadoop系统的时候,必不可少需要对HDFS分布式文件系统做操作,例如拷贝一个文件/目录,查看HDFS文件系统目录下的内容,删除HDFS文件系统中的内容(文件/目录),还有HDFS管理 ...
- 介绍hadoop中的hadoop和hdfs命令
有些hive安装文档提到了hdfs dfs -mkdir ,也就是说hdfs也是可以用的,但在2.8.0中已经不那么处理了,之所以还可以使用,是为了向下兼容. 本文简要介绍一下有关的命令,以便对had ...
随机推荐
- Asp.Net MVC分页PageList
1.mvc网站右键->管理nuget程序包->安装下边两个组件 2.controller public dbModel db = new dbModel(); public ActionR ...
- angularjs项目的页面跳转如何实现
链接:https://www.zhihu.com/question/33565135/answer/696515Angular页面传参有多种办法,根据不同用例,我举5种最常见的:PS: 在实际项目中, ...
- Python爬取中国票房网所有电影片名和演员名字,爬取齐鲁网大陆所有电视剧名称
爬取CBO中国票房网所有电影片名和演员名字 # -*- coding: utf-8 -*- # 爬取CBO中国票房网所有电影片名 import json import requests import ...
- Nginx作为web服务器
为什么选择Nginx,nginx有诸多优点: nginx是轻量级web服务器,支持AIO.mmap.event-driven,解决了c10k问题.虚拟主机.基于名字和IP访问.nginx平滑升级 .热 ...
- RelativeLayout.LayoutParams
通过id设置相对兄弟元素对齐. <RelativeLayout xmlns:android="http://schemas.android.com/apk/res/android&qu ...
- loadrunner文本检查点
将脚本切换回代码界面, 在光标闪烁的上行,添加如下的代码: 添加的代码根据你检查的方式不同而不同, 你可以选择其中之一即可. 代码一: web_reg_find("Text=Payment ...
- [转]mysql中的字符串的拼接
字符串的拼接 1,Mysql 在Java.C#等编程语言中字符串的拼接可以通过加号“+”来实现,比如:"1"+"3"."a"+"b ...
- eclipse mars 4.5.1 自定义工具栏
window>>perspective>>Customize Perspective
- C语言 · 数组输出
算法提高 数组输出 时间限制:1.0s 内存限制:512.0MB 输入一个3行4列的数组,找出该数组中绝对值最大的元素.输出该元素及其两个下标值.如有多个输出行号最小的,还有多个的话 ...
- [phy]在uboot阶段失能phy芯片
在uboot阶段power down掉phy芯片 uenvcmd=mdio 0x800; mmc rescan mdio为uboot支持命令 7:phy芯片地址 0:phy芯片工作模式寄存器地址 0x ...