hdfs dfs


  • -cat URI : 查看文件内容
    1. hdfs dfs -cat hdfs dfs -cat hdfs://mycluster/user/root/rcc1
    2. hdfs dfs -cat file:///usr/hdp/2.4.2.0-258/hadoop/bin/rcc
  • -ls <args>: 查文件列表
    1. 返回格式:permissions number_of_replicas userid groupid filesize modification_date modification_time filename

      [root@hdp2 ~]# hdfs dfs -ls
      Found items
      drwx------ - root hdfs -- : .Trash
      drwxr-xr-x - root hdfs -- : .hiveJars
      -rw-r--r-- root hdfs -- : mapred
      -rw-r--r-- root hdfs -- : rcc1
  • -mkdir <paths>   : 创建目录
    1. The behavior is much like unix mkdir -p creating parent directories along the path

      [root@hdp2 ~]# hdfs dfs -ls
      Found items
      drwx------ - root hdfs -- : .Trash
      drwxr-xr-x - root hdfs -- : .hiveJars
      -rw-r--r-- root hdfs -- : mapred
      -rw-r--r-- root hdfs -- : rcc1
      [root@hdp2 ~]# hdfs dfs -mkdir hdfs://mycluster/user/root/zhu
      [root@hdp2 ~]# hdfs dfs -ls
      Found items
      drwx------ - root hdfs -- : .Trash
      drwxr-xr-x - root hdfs -- : .hiveJars
      -rw-r--r-- root hdfs -- : mapred
      -rw-r--r-- root hdfs -- : rcc1
      drwxr-xr-x - root hdfs -- : zhu
  • -copyFromLocal <localsrc> URI: 上传文件,类似于put
  • -put <localsrc> ... <dst>
[root@hdp2 ~]# hdfs dfs -ls /user/root/zhu
[root@hdp2 ~]# hdfs dfs -put /usr/zhu/a1.png /user/root/zhu
[root@hdp2 ~]# hdfs dfs -copyFormLocal /usr/zhu/a2.png /user/root/zhu
-copyFormLocal: Unknown command
[root@hdp2 ~]# hdfs dfs -copyFromLocal /usr/zhu/a2.png /user/root/zhu
[root@hdp2 ~]# hdfs dfs -ls /user/root/zhu
Found items
-rw-r--r-- root hdfs -- : /user/root/zhu/a1.png
-rw-r--r-- root hdfs -- : /user/root/zhu/a2.png
[root@hdp2 ~]#
  • -copyToLocal [-ignorecrc] [-crc] URI <localdst> : 下载到本地
  • -get [-ignorecrc] [-crc] <src> <localdst>
    [root@hdp2 ~]# clear
    [root@hdp2 ~]# hdfs dfs -ls /user/root/zhu
    Found items
    -rw-r--r-- root hdfs -- : /user/root/zhu/a1.png
    -rw-r--r-- root hdfs -- : /user/root/zhu/a2.png
    [root@hdp2 ~]# hdfs dfs -copyToLocal hdfs://mycluster/user/root/zhu/a1.png /usr/zhu/tmp
    [root@hdp2 ~]# hdfs dfs -get /usr/root/zhu/a2.png /usr/zhu/tmp
    get: `/usr/root/zhu/a2.png': No such file or directory
    [root@hdp2 ~]# hdfs dfs -get /user/root/zhu/a2.png /usr/zhu/tmp
    [root@hdp2 ~]# cd /usr/zhu/tmp
    [root@hdp2 tmp]# ll
    total
    -rw-r--r-- root root Sep : a1.png
    -rw-r--r-- root root Sep : a2.png
    [root@hdp2 tmp]#
    • -count [-q] <paths> :统计
      1. The output columns with -count are: DIR_COUNT, FILE_COUNT, CONTENT_SIZE FILE_NAME
      2. The output columns with -q are: QUOTA, REMAINING_QUATA, SPACE_QUOTA, REMAINING_SPACE_QUOTA
        [root@hdp2 tmp]# hdfs dfs -count /user/root/zhu
        /user/root/zhu
        [root@hdp2 tmp]# hdfs dfs -count -q /user/root/zhu
        none inf none inf /user/root/zhu
        [root@hdp2 tmp]#
    • -du [-s] [-h] URI [URI …]:  统计大小
      1. The -s option will result in an aggregate summary of file lengths being displayed, rather than the individual file
      2. The -h option will format file sizes in a "human-readable" fashion (e.g 64.0m instead of 67108864)
        [root@hdp2 tmp]# hdfs dfs -du -h /user/root/zhu
        84.9 K /user/root/zhu/a1.png
        54.5 K /user/root/zhu/a2.png
        [root@hdp2 tmp]#
    • -rm -r [-skipTrash] URI [URI …]
      1. -r: Recursive version of delete

        [root@hdp2 tmp]# hdfs dfs -ls /user/root/zhu
        Found items
        -rw-r--r-- root hdfs -- : /user/root/zhu/a1.png
        [root@hdp2 tmp]# hdfs dfs -rm -r /user/root/zhu
        // :: INFO fs.TrashPolicyDefault: Namenode trash configuration: Deletion interval = minutes, Emptier interval = minutes.
        Moved: 'hdfs://mycluster/user/root/zhu' to trash at: hdfs://mycluster/user/root/.Trash/Current
        [root@hdp2 tmp]# hdfs dfs -ls /user/root/zhu
        ls: `/user/root/zhu': No such file or directory
        [root@hdp2 tmp]#
    • -touchz URI [URI …]
      1. Create a file of zero length

        [root@hdp2 tmp]# hdfs dfs -ls
        Found items
        drwx------ - root hdfs -- : .Trash
        drwxr-xr-x - root hdfs -- : .hiveJars
        -rw-r--r-- root hdfs -- : mapred
        -rw-r--r-- root hdfs -- : rcc1
        [root@hdp2 tmp]# hdfs dfs -touchz a.txt
        [root@hdp2 tmp]# hdfs dfs -ls
        Found items
        drwx------ - root hdfs -- : .Trash
        drwxr-xr-x - root hdfs -- : .hiveJars
        -rw-r--r-- root hdfs -- : a.txt
        -rw-r--r-- root hdfs -- : mapred
        -rw-r--r-- root hdfs -- : rcc1
        [root@hdp2 tmp]# hdfs dfs -cat /user/root/a.txt
        [root@hdp2 tmp]#
    • 小结:

    •  本质就是linux文件操作命令

    hadoop(五): shell命令的更多相关文章

    1. 【转】Hadoop FS Shell命令

      FS Shell 调用文件系统(FS)Shell命令应使用 bin/hadoop fs <args> 的形式. 所有的的FS shell命令使用URI路径作为参数.URI格式是scheme ...

    2. hadoop入门:hadoop使用shell命令总结

      第一部分:Hadoop Bin后面根据项目的实际需要Hadoop Bin  包括:Hadoop  hadoop的Shellhadoop-config.sh 它的作用是对一些变量进行赋值     HAD ...

    3. Hadoop常见shell命令

      Hadoop中常见的shell命令 1.如何将Linux本地的数据上传到HDFS中? hadoop fs -put 本地的文件 HDFS中的目录hdfs dfs -put 本地的文件 HDFS中的目录 ...

    4. hadoop(五)scp命令copy文件和配置(完全分布式准备二)|7

      机器的克隆参考centos7克隆ip|机器名|映射关系|别名配置(hadoop完全分布式准备一) 那么问题来了,如果我们有30台机器,之间可以互相访问,那我们如何快速安装配置环境如jdk hadoop ...

    5. Hadoop Shell命令字典(可收藏)

      可以带着下面问题来阅读: 1.chmod与chown的区别是什麽?2.cat将路径指定文件的内容输出到哪里?3.cp能否是不同之间复制?4.hdfs如何查看文件大小?5.hdfs如何合并文件?6.如何 ...

    6. Hadoop Shell命令字典

      转载自:https://www.aboutyun.com//forum.php/?mod=viewthread&tid=6983&extra=page%3D1&page=1&a ...

    7. Hadoop Shell命令大全

      hadoop支持命令行操作HDFS文件系统,并且支持shell-like命令与HDFS文件系统交互,对于大多数程序猿/媛来说,shell-like命令行操作都是比较熟悉的,其实这也是Hadoop的极大 ...

    8. Hadoop学习记录(2)|HDFS shell命令|体系结构

      HDFS的shell 调用文件系统(FS)shell命令使用hadoop fs的形式 所有的FS shell命令使用URI路径作为参数. URI格式是scheme://authority/path.H ...

    9. 部分linux系统命令(shell 命令)和hadoop命令

      linux系统命令(shell 命令): ls :  只列出文件/目录 ls -l :  会显示文件的详情,如大小等 ls -lh :  会显示文件的详情,但大小以k或者M为单位 ls ../ :  ...

    随机推荐

    1. 【转】使用Xcode 6将你的项目本地化

      原文转自:http://www.cocoachina.com/ios/20141004/9827.html iOS和OSX支持40种语言的本地化,Xcode无疑为这一过程提供了强有力的支持.苹果将这一 ...

    2. javascript:;与javascript:void(0)使用介绍

      有时候我们在编写js过程中,需要触发事件而不需要返回值,那么就可能需要这样的写法 href=”#”,包含了一个位置信息.默认的锚是#top,也就是网页的上端,当连续快速点击此链接时会导致浏览器巨慢甚至 ...

    3. 使用Office 365 试用账户 体验Office 365功能

      首先,需要申请Office 365 Enterprise E3版本的试用账户. 在浏览器中,输入以下地址,然后回车: http://products.office.com/en-us/business ...

    4. php求文件的相对路径

      php转义字符的应用,\为转义字符需要转义为\\. <?php //求b相对a的路径 $a="d:\web\file\ab.php"; $b="d:\web\fil ...

    5. session过期时ajax请求刷新浏览器

      ajax前置处理实现异步请求session过期时跳转登录页面 function checkLogin(json) { if (typeof(json) === 'string' && ...

    6. Hive on Spark运行环境搭建

      Hive是基于Hadoop的开源数据仓库工具,提供了类似于SQL的HiveQL语言,使得上层的数据分析人员不用知道太多MapReduce的知识就能对存储于Hdfs中的海量数据进行分析.由于这一特性而收 ...

    7. sass中mixin常用的CSS3

      圆角border-radius @mixin rounded($radius){ -webkit-border-radius: $radius; -moz-border-radius: $radius ...

    8. Single Number II ——位操作

      题意: 给定两个32位的整数 N 和 M,以及表示比特位置的 i 与 j .编写一个方法,将 M 插入 N,使得 M 从 N 的第 j 位开始,到第 i 位结束.假定从 j 位到 i 位足以容纳M. ...

    9. CentOS云服务器数据盘分区和格式化

      1. 查看数据盘信息 登录CentOS云服务器后,可以使用“fdisk -l”命令查看数据盘相关信息. 使用“df –h”命令,无法看到未分区和格式化的数据盘,只能看到已挂载的. [root@VM_7 ...

    10. html--整站制作

      1.样式初置 body,div,ul,ol,h1,h2,h3,h4,h5,p,form,input,textarea,select{margin:0;padding:0;} li{list-style ...