基本格式: hadoop fs -cmd [args]

1 Query

  • 显示命令的帮助信息
# hadoop fs -help [cmd]
  • 查看hadoop/hdfs的用户
# hdfs dfs -ls /user

更改hdfs的目录权限: hdfs dfs -chwon sdc /user/sdc

  • 查看HDFS文件及目录

-ls(r) //显示当前目录下所有文件

# hadoop fs -ls /

# hadoop fs -ls -R /
(递归查看)



  • 显示文件内容 in 终端
# hadoop fs -cat <src>

# hadoop fs -text <src>
(将文本文件或某些格式的非文本文件通过文本格式输出) # hadoop fs -tail <hdfs file>
(在标准输出中显示文件末尾的1KB数据)
  • 显示文件(目录)存储大小
# hadoop fs -du(s) <path>
//显示目录中所有文件大小 # hadoop fs -du -s <hdsf-path>
//显示hdfs对应路径下所有文件和的大小 # hadoop fs -du -h <hdsf-path>
显示hdfs对应路径下每个文件夹和文件的大小,文件的大小用方便阅读的形式表示。例如用64M代替67108864
  • 显示目录中文件数量
# hadoop fs -count[-q] <path>

2 Manipulation

2.1 上传/移动/下载 [本地文件系统 ~ HDFS文件系统]

  • 上传本地文件到HDFS文件系统的指定目录中
# hadoop fs -put ./local_test.txt /hdfs_test

#hadoop fs -copyFromLocal ./local_test.txt /hdfs_test
  • 移动本地文件到HDFS文件系统的指定目录中
# hadoop fs -moveFromLocal ./local_test.txt /hdfs_test
  • 下载HDFS文件系统的指定目录到本地路径下
# hadoop fs -get /hdfs_test/test.txt .

# hadoop fs -getToLocal /hdfs_test/test.txt .

hadoop fs -get [-ignoreCrc] //复制文件到本地,可忽略crc校验

hadoop fs -getmerge //将源目录中的所有文件排序合并到1个本地文件中。若文件不存在时会自动创建;若文件存在时会覆盖里面的内容

hadoop fs -getmerge -nl //加上-nl后,合并到local file中的hdfs文件之间会空出一行

  • 移动HDFS文件系统的指定目录到本地文件中
# hadoop fs -moveToLocal <hdfs-src> <localdst>

2.2 数据操纵

  • 拷贝/移动/删除 文件(夹)
# hadoop fs -cp /test/test.txt /test1
-cp <src-dir> <dst-dir>
(支持同时复制多个文件到目标目录)
# hadoop distcp hdfs://master1:8020/foo/bar hdfs://master2:8020/bar/foo
(两个haddop hdfs集群之间拷贝数据) # hadoop fs -rm /test1/test.txt
[删除文件]
# hadoop fs -rm -r /test1/
[删除文件夹] # hadoop fs -mv /test/test.txt /test1
-mv <src-dir> <dest-dir>

2.3 目录操纵

  • 创建文件目录
# hadoop fs -mkdir /test
(在根目录创建一个目录test)

3 补充: Hive的支持

hive内亦支持 dfs 命令.

# hive> dfs -ls /;
Found 12 items
drwxr-xr-x - hdfs hdfs 0 2020-07-22 11:45 /2020
drwxr-xr-x - hdfs hdfs 0 2020-09-11 15:08 /2be982848f5f49e1884e43092f7670da
drwxrwxrwx - yarn hadoop 0 2020-11-14 13:15 /app-logs
drwxr-xr-x - hdfs hdfs 0 2020-07-21 19:08 /apps
drwxr-xr-x - yarn hadoop 0 2020-07-21 19:07 /ats
drwxrwxrwx - hdfs hdfs 0 2020-07-21 19:17 /kylin
drwxr-xr-x - mapred hdfs 0 2020-07-21 19:06 /mapred
drwxrwxrwx - mapred hadoop 0 2020-07-21 19:07 /mr-history
drwxr-xr-x - hdfs hdfs 0 2020-07-21 19:07 /sdp
drwxrwxrwx - spark hadoop 0 2021-04-29 19:41 /spark2-history
drwxrwxrwx - hdfs hdfs 0 2021-04-29 18:57 /tmp
drwxr-xr-x - hdfs hdfs 0 2020-11-13 20:38 /user

X 参考文献

[大数据]Hadoop HDFS文件系统命令集的更多相关文章

  1. 我要进大厂之大数据Hadoop HDFS知识点(1)

    01 我们一起学大数据 老刘今天开始了大数据Hadoop知识点的复习,Hadoop包含三个模块,这次先分享出Hadoop中的HDFS模块的基础知识点,也算是对今天复习的内容进行一次总结,希望能够给想学 ...

  2. 我要进大厂之大数据Hadoop HDFS知识点(2)

    01 我们一起学大数据 老刘继续分享出Hadoop中的HDFS模块的一些高级知识点,也算是对今天复习的HDFS内容进行一次总结,希望能够给想学大数据的同学一点帮助,也希望能够得到大佬们的批评和指点! ...

  3. 大数据 - hadoop - HDFS+Zookeeper实现高可用

    高可用(Hign Availability,HA) 一.概念 作用:用于解决负载均衡和故障转移(Failover)问题. 问题描述:一个NameNode挂掉,如何启动另一个NameNode.怎样让两个 ...

  4. 大数据Hadoop——HDFS Shell操作

    一.查询目录下的文件 1.查询根目录下的文件 Hadoop fs -ls / 2.查询文件夹下的文件 Hadoop fs -ls /input 二.创建文件夹 hadoop fs -mkdir /文件 ...

  5. 大数据hadoop入门学习之集群环境搭建集合

    目录: 1.基本工作准备 1.虚拟机准备 2.java 虚拟机-jdk环境配置 3.ssh无密码登录 2.hadoop的安装与配置 3.hbase安装与配置(集成安装zookeeper) 4.zook ...

  6. 云计算分布式大数据Hadoop实战高手之路第七讲Hadoop图文训练课程:通过HDFS的心跳来测试replication具体的工作机制和流程

    这一讲主要深入使用HDFS命令行工具操作Hadoop分布式集群,主要是通过实验的配置hdfs-site.xml文件的心跳来测试replication具体的工作和流程. 通过HDFS的心跳来测试repl ...

  7. 大数据Hadoop学习之搭建hadoop平台(2.2)

    关于大数据,一看就懂,一懂就懵. 一.概述 本文介绍如何搭建hadoop分布式集群环境,前面文章已经介绍了如何搭建hadoop单机环境和伪分布式环境,如需要,请参看:大数据Hadoop学习之搭建had ...

  8. 王家林的“云计算分布式大数据Hadoop实战高手之路---从零开始”的第十一讲Hadoop图文训练课程:MapReduce的原理机制和流程图剖析

    这一讲我们主要剖析MapReduce的原理机制和流程. “云计算分布式大数据Hadoop实战高手之路”之完整发布目录 云计算分布式大数据实战技术Hadoop交流群:312494188,每天都会在群中发 ...

  9. 云计算分布式大数据Hadoop实战高手之路第八讲Hadoop图文训练课程:Hadoop文件系统的操作实战

    本讲通过实验的方式讲解Hadoop文件系统的操作. “云计算分布式大数据Hadoop实战高手之路”之完整发布目录 云计算分布式大数据实战技术Hadoop交流群:312494188,每天都会在群中发布云 ...

  10. 成都大数据Hadoop与Spark技术培训班

    成都大数据Hadoop与Spark技术培训班   中国信息化培训中心特推出了大数据技术架构及应用实战课程培训班,通过专业的大数据Hadoop与Spark技术架构体系与业界真实案例来全面提升大数据工程师 ...

随机推荐

  1. Python 时间日期获取(今天,昨天或者某一段时间)

    日常使用的时间函数: 昨天,或者N天的日期 import time def time_stamp(days): hours = int(days) t = time.strftime("%Y ...

  2. kubctl

    kubctl delete 命令:删除资源 根据yaml文件删除对应的资源,但是yaml文件并不会被删除,这样更加高效 delete 描述: 按文件名.stdin.资源和名称或按资源和标签选择器删除资 ...

  3. CentOS 7 部署Memcached服务器——超级详细

    操作系统:CentOS 7.x 64位实现目的:安装部署Memcached服务器 一.防火墙设置CentOS 7.x默认使用的是firewall作为防火墙,这里改为iptables防火墙. 1.关闭f ...

  4. String 练习题

    题目一:获取指定字符串中,大写字母.小写字母.数字的个数. 题目二:将字符串中,第一个字母转换成大写,其他字母转换成小写,并打印改变后的字符串. 题目三:查询大字符串中,出现指定小字符串的次数.如&q ...

  5. 学习JavaScript第五周

    MySQL基本内容: 访问:2种 ​ 1.图形化界面 - 傻瓜式 ​ 要求:同时打开apache和mysql ​ 访问:127.0.0.1:端口号/phpmyadmin ​ localhost:端口号 ...

  6. 第12组 Beta冲刺 (1/5)

    1.1基本情况 ·队名:美少女战士 ·组长博客: https://www.cnblogs.com/yaningscnblogs/p/14016591.html ·作业博客:https://edu.cn ...

  7. Mysql 的用户权限等操作管理与设置(创建、授权、修改、查看)

    注:请在 MySql 的客户端操作 1.创建用户 CREATE USER 'username'@'host' IDENTIFIED BY 'password';//例 CREATE USER 'use ...

  8. Rstudio R get filename full path

    FILENAME=basename(rstudioapi::getActiveDocumentContext()$path) FULLPATH=dirname(rstudioapi::getActiv ...

  9. day49-数据类型、约束条件

    数据类型: 1.整型--默认情况下都是带有符号的, id int(8)-- 如果数字没有超过9位,默认用0填充,如果数字超出8位,有几位存几位 总结:针对整型字段,括号内无需指定宽度,因为它默认的宽度 ...

  10. loadrunner添加头部

    web_add_auto_header("token_id", "{token_id}"); 或 web_add_header("token_id&q ...