HDFS - Shell命令

  最近学习比较忙,本来想做一个搭建集群笔记,今天先记录HDFS-shell命令,明天,最迟明天下午我一定会做一个搭建集群的笔记。。

    介绍一个我的集群搭建:一主三从

      3个虚拟机:

       1. hadoop1:主+从 namenode+datanode+resourceMarager

      2.hadoop2:从+日志记录 datanode+secondarynamenode+datamanager

      3.hadoop3:从 datanode+datamanager

      

  1.启动集群:

   

  2.查看网页运行:

    

    

  1)创建一个文件夹: 

    hadoop  fs -mkdir /in 或者 hadoop fs -mkdir hdfs//hadoop1:8020/out    

     

  2) 上传一个文件或者多个

    hadoop fs -put 3 /in 或者 hadoop fs -put * /in(大数据不能修改文件,多个文件上次递归上传)

    

  3)删除文件

    hadoop fs -rm -R /in/*(删除多个,递归删除)

    

  4)多个文件上传

    hadoop fs -put f1.txt log.txt testfiles /in或者hadoop fs- -put *.jpeg *.txt(该目录下所有以*.jpeg和.ext结尾的都上传)

    

  5)查看一个文本

    hadoop fs -cat /in/文件名 或者hadoop fs -cat /in/文件名(文件大时,优先使用text)

     

  6)修改Group所属人

    useradd lich --> passwd lich -->lich-->lich -->hadoop fs -chgrp lich /in/文件名

    

  7)修改所属主Owner

    hadoop fs -chown lich:lich /in/文件名

    

  8)lich删除root所属组的文件:(阻止好人做坏事)

    hadoop -rm /in/log.txt(如果dfs:permissions:true则删除失败)

    

  9)更改属性

  hadoop fs -put 文件名 /in/文件名(前文件名:要上传的文件的log.txt文件名,后者:如果里面已经有相同的文件名则改问后者,反之为前者)

   

  10)上传并从命名:

    hadoop fs -copyFromLocal ./log.txt /in/新的文件名     

     

   11)下载一个文件(下载到本地Linux上)

    hadoop fs -get /in/hehe.txt ./或者hadoop fs -copyToLocal /in/hehe.txt ./(如果下载的名字相同则报错)

    

   12)hadoop将目录/in下的hehe.txt复制到/out下

      hadoop fs -cp /in/hehe.txt /out

    

  13)查看文件大小

    hadoop fs -du

    

  14)合并下载

    hadoop fs -getmerge /in/* ./biubiu.txt

    

  15)合并上传(hadoop不支持合并上传)

    cat log.txt >> lalal.txt    cat testfile >> lalal.txt     cat f1.txt >>lalaltxt 合并文件

     

    hadoop fs -put lalal.txt /in 上传

     

  16)查看目录

  hadoop fs -lsr/ 或者hadoop fs ls -R

    

  17)保存目录

   hadoop fs -lsr / >7.txt(将目录保存到文件7.txt下)

    

  18)将本地的文件移动到hadoop上

    hadoop fs -moveFromLocal 文件名 /in

  19)将Hadoop上的文件以到hadoop的其他文件下

    hadoop fs -mv /in/文件名  /out/new文件名

    

         

  20)递归删除文件

    hadoop fs -rmr /in

    

  21)修改数据热度

    hadoop fs -setrep 5 /in/文件名或者 hadoop fs -setrep 5 -R  /in (递归in下所有文件都改为热度为5)

    

  22)统计信息

    hadoop fs -stat /in/hehe.txt

    

 23)打开文件的尾部的1000字节

    hadoop  fs -tail /in/hehe.txt

    

   24)测试文件

    -e文件是否存在,是返回0

    -z文件是否为空,是返回0

    -d检查文件是否为目录 是返回1,反之0

       hadoop fs -test -e /in/hehe.txt

   25) 上传一个空的文件(用处不大)

    hadoop fs -touchz /in/_SUCCESS(标识其他文件的结果)

   26)删除后一天之内可以撤销(删除后的文件到了根目录下的user/root/.Trash/Current/你所删除的文件)

    hadoop fs -rmr  /out/*

    

  27)将26删除的拿回来

    hadoop fs -cp /user/root/.Transg/Cuttent/你要的文件

  28)清空回收站

    hadoop fs -expunge

    注意:删除时要超过配置文件中的一天后才能删除,不能立即删除

    

  huhu_k:所有的成功都不是一朝一夕的事情。

    

HDFS - Shell命令的更多相关文章

  1. HDFS shell命令行常见操作

    hadoop学习及实践笔记—— HDFS shell命令行常见操作 附:HDFS shell guide文档地址 http://hadoop.apache.org/docs/r2.5.2/hadoop ...

  2. hdfs shell命令及java客户端编写

    一. hdfs shell命令 可以通过hadoop fs 查看所有的shell命令及其用法. 传文件到hdfs: hadoop fs -put /home/koushengrui/Downloads ...

  3. Hadoop学习记录(2)|HDFS shell命令|体系结构

    HDFS的shell 调用文件系统(FS)shell命令使用hadoop fs的形式 所有的FS shell命令使用URI路径作为参数. URI格式是scheme://authority/path.H ...

  4. hadoop2.5.2学习及实践笔记(五)—— HDFS shell命令行常见操作

    附:HDFS shell guide文档地址 http://hadoop.apache.org/docs/r2.5.2/hadoop-project-dist/hadoop-common/FileSy ...

  5. HDFS Shell命令操作与java代码操作

    (一)编程实现以下功能,并利用 Hadoop 提供的 Shell 命令完成相同任务: (1)     向 HDFS 中上传任意文本文件,如果指定的文件在 HDFS 中已经存在,则由用户来指定是追加到原 ...

  6. hadoop 学习(三)之hdfs shell命令

    1.HDFS shell 1.0查看帮助  hadoop fs -help <cmd> 1.1上传  hadoop fs -put <linux上文件> <hdfs上的路 ...

  7. hadoop学习笔记(五):HDFS Shell命令

    一.HDFS文件命令 以下是比较重要的一些命令: [root@master01 hadoop]# hadoop fs -ls / //查看根目录下的所有文件 [root@master01 hadoop ...

  8. hdfs shell 命令以及原理

    shell 操作 dfs 上传[hadoop@namenode ~]$ /data/hadoop/bin/hadoop fs -put /opt/MegaRAID/MegaCli/MegaCli64 ...

  9. 【hadoop】 hdfs shell 命令交互

    1.put 本地文件上传至hdfs中 2. cat 查看内容 3. 删除文件,文件夹 4. ls 5. copyFromLocal 复制本地文件到HDFS , copyToLocal hdfs 复制到 ...

随机推荐

  1. 【NOIP 2016】Day2 T3 愤怒的小鸟

    Problem Description \(Kiana\) 最近沉迷于一款神奇的游戏无法自拔. 简单来说,这款游戏是在一个平面上进行的. 有一架弹弓位于 \((0,0)\) 处,每次 \(Kiana\ ...

  2. HDU 5792 World is Exploding(树状数组+离散化)

    http://acm.split.hdu.edu.cn/showproblem.php?pid=5792 题意: 思路: lmin[i]:表示左边比第i个数小的个数. lmax[i]:表示左边比第i个 ...

  3. 批量Excel数据导入Oracle数据库

    由于一直基于Oracle数据库上做开发,因此常常会需要把大量的Excel数据导入到Oracle数据库中,其实如果从事SqlServer数据库的开发,那么思路也是一样的,本文主要介绍如何导入Excel数 ...

  4. layout_gravity与gravity的区别,和padding margin的区别

    https://blog.csdn.net/github_39688629/article/details/77790541

  5. Eclipse使用之将Git项目转为Maven项目, ( 注意: 最后没有pom.xml文件的, 要转化下 )

    Eclipse使用之将Git项目转为Maven项目(全图解) 2017年08月11日 09:24:31 阅读数:427 1.打开Eclipse,File->Import 2.Git->Pr ...

  6. 记录一次在centos下使用gmp的悲伤

    有个作业是需要在linux下做的,并且需要用到gmp这个 library : 我使用的是虚拟机centos7.很久没碰过linux了,忘得差不多了,一点点百度出来的 1. 首先检查是否已存在gmp库 ...

  7. vscode 常用扩展推荐

    1.扩展推荐 Beautify    Beautify code in place for VS Code CSS Formatter     Formatter for CSS ESLint     ...

  8. python+opencv 运行环境搭建

    1:安装pycharm,验证码你懂的 2:安装python3.5以上,或3.6,python2和3 的版本差异还蛮大 3:安装opencv,如下图 以上是方法一,还有之中方法是下载whl文件再手动安装 ...

  9. Go语言学习之1 基本概念、环境搭建、第一个Go程序

    一.环境搭建 见我的这篇博客 https://www.cnblogs.com/xuejiale/p/10258244.html 二.golang语言特性1. 垃圾回收    1) 内存自动回收,再也不 ...

  10. ubuntu16.04安装nvidia ,cuda(待完善)

    ubuntu16.04安装nvidia 1.首先查看自己的pc显卡的型号 ubuntu16.04 查看方法: 查看GPU型号 :lspci | grep -i nvidia 查看NVIDIA驱动版本: ...