HDFS命令操作
首先需要在xshell启动hadoop
start-all.sh  or start-hdfs.sh
  • hadoop fs -ls /        (显示当前目录下所有文件)
  • hadoop fs -du /sevenclass     (显示目录中所有文件的大小)
  • hadoop fs -cat /a.txt     (查看当前文本信息)
  • hadoop fs -text /a.txt     (查看当前文本信息)
  • hadoop fs -count /test     
        显示指定文件或目录的 DIR_COUNT(子目录个数) , FILE_COUNT (文件个数),CONTENT_SIZE(字节个数) ,FILE_NAME(目录名)
 
mkdir    创建文件
hadoop fs -mkdir /test1 /test2    (同时创建两个文件夹)
hadoop fs -mkdir /a/b    (创建a文件夹并在内创建b文件夹,如果没有a文件夹,会抛错)
hadoop fs -mkdir -p /a/b    (没有a文件夹创建a 然后在内创建b)
 
cp     复制
 hadoop fs -cp /a/b /c/    (将/a/b拷贝到/c下)
 
copyFromLocal    (从本地文件系统上传文件到HDFS)
hadoop fs -copyFromLocal /usr/a.txt    /test 
                                              本地文件      HDFS路径
 
copyToLocal    (从HDFS下载文件到本地文件系统)
hadoop fs -copyToLocal /test/a.txt    /usr
                                       HDFS文件    本地路径    
       
moveToLocal    该命令还未实现
 
put (从本地文件系统上传文件到HDFS )
注意:区别于copyFromLocal: 可以同时复制多个源路径到目标文件系统,也支持从标准输入中读取输入写入目标文件系统
hadoop fs -put /usr/a.txt      /test 
                        本地文件      HDFS路径
hadoop fs -put /usr/a.txt /usr/b.txt     /test 
                        本地文件(多个文件)  HDFS路径
 
get    (复制文件到本地文件系统)
hadoop fs -get /test/a.txt /usr
 
mv (将文件从源路径移动到目标路径,这个命令允许有多个源路径。但目标路径必须是一个目录,不允许在不同文件系统间移动文件。)
hadoop fs -mv /user/hadoop/file1 /user/hadoop/file2    (移动并改名称)            源文件路径file1                   移动路径并改名为file2
hadoop fs -mv /test /test1    (把文件夹test移到test1下)
 
touchz    (创建一个0字节的空文件)
hadoop fs -touchz pathname    创建名为pathname的空文件
 
appendToFile    (向现有文件中追加内容)
hadoop fs -appendToFile /home/test.txt /1.txt
                        1.txt是现有文件。/home/test.txt把内容追加到1.txt             
 
getmerge(接收一个源目录和一个目标文件作为输入,并且将源目录中所有的文件连接成本地目标文件)
hadoop fs -getmerge /test1/test test.txt
把/test1/test所有内容 复制到test.txt
 
rm 删除指定的文件
    hadoop fs -rm /user/a.txt
 
rmr 递归删除文件
hadoop fs -rmr /user/hadoop/dir
  
linux 常用操作
  • passwd(修改密码)
            使用:直接输入命令passwd回车,根据提示输入
  •  clear(清屏)
  • su(切换到其他用户)
        输入su root 回车, 然后输入root 密码 ; 使用exit退出当前用户
  • pwd(显示当前在Linux文件系统中的所在位置)
  •   chown(改变文件的所有者)
        chown  hadoop:hadoop a.txt (表示把a.txt所有者改为hadoop 所在组为hadoop)
 
HDFS命令操作
首先需要在xshell启动hadoop
start-all.sh  or start-hdfs.sh
  • hadoop fs -ls /        (显示当前目录下所有文件)
  • hadoop fs -du /sevenclass     (显示目录中所有文件的大小)
  • hadoop fs -cat /a.txt     (查看当前文本信息)
  • hadoop fs -text /a.txt     (查看当前文本信息)
  • hadoop fs -count /test     
        显示指定文件或目录的 DIR_COUNT(子目录个数) , FILE_COUNT (文件个数),CONTENT_SIZE(字节个数) ,FILE_NAME(目录名)
 
mkdir    创建文件
hadoop fs -mkdir /test1 /test2    (同时创建两个文件夹)
hadoop fs -mkdir /a/b    (创建a文件夹并在内创建b文件夹,如果没有a文件夹,会抛错)
hadoop fs -mkdir -p /a/b    (没有a文件夹创建a 然后在内创建b)
 
cp     复制
 hadoop fs -cp /a/b /c/    (将/a/b拷贝到/c下)
 
copyFromLocal    (从本地文件系统上传文件到HDFS)
hadoop fs -copyFromLocal /usr/a.txt /test 
                                           本地文件      HDFS路径
copyToLocal    (从HDFS下载文件到本地文件系统)
hadoop fs -copyToLocal /test/a.txt /usr
                                       HDFS文件    本地路径           
moveToLocal    该命令还未实现
 
put (从本地文件系统上传文件到HDFS )
区别于copyFromLocal: 可以同时复制多个源路径到目标文件系统,也支持从标准输入中读取输入写入目标文件系统
hadoop fs -put /usr/a.txt /test 
                        本地文件      HDFS路径
hadoop fs -put /usr/a.txt /usr/b.txt /test 
                        本地文件              HDFS路径
 
get    (复制文件到本地文件系统)
hadoop fs -get /test/a.txt /usr
 
mv (将文件从源路径移动到目标路径,这个命令允许有多个源路径。但目标路径必须是一个目录,不允许在不同文件系统间移动文件。)
hadoop fs -mv /user/hadoop/file1 /user/hadoop/file2    (移动并改名称)            源文件路径file1                   移动路径并改名为file2
hadoop fs -mv /test /test1    (把文件夹test移到test1下)
 
touchz    (创建一个0字节的空文件)
hadoop fs -touchz pathname    创建名为pathname的空文件
 
appendToFile    (向现有文件中追加内容)
hadoop fs -appendToFile /home/test.txt /1.txt
                        1.txt是现有文件。/home/test.txt把内容追加到1.txt             
 
getmerge(接收一个源目录和一个目标文件作为输入,并且将源目录中所有的文件连接成本地目标文件)
hadoop fs -getmerge /test1/test test.txt
把/test1/test所有内容 复制到test.txt
 
rm 删除指定的文件
    hadoop fs -rm /user/a.txt
 
rmr 递归删除文件
hadoop fs -rmr /user/hadoop/dir
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 

小记---------有关hadoop的HDFS命令行操作的更多相关文章

  1. HDFS命令行操作

    启动后可通过命令行使用hadoop. (1)所有命令 (先将$HADOOP_HOME/bin加入到.bashrc的$PATH变量中) [html] view plaincopy [hadoop@nod ...

  2. Hadoop常见重要命令行操作及命令作用

    关于Hadoop [root@master ~]# hadoop --help Usage: hadoop [--config confdir] COMMANDwhere COMMAND is one ...

  3. Docker 安装Hadoop HDFS命令行操作

    网上拉取Docker模板,使用singlarities/hadoop镜像 [root@localhost /]# docker pull singularities/hadoop 查看: [root@ ...

  4. Hadoop系列006-HDFS概念及命令行操作

    本人微信公众号,欢迎扫码关注! HDFS概念及命令行操作 一.HDFS概念 1.1 概念 HDFS,它是一个文件系统,用于存储文件,通过目录树来定位文件:其次,它是分布式的,由很多服务器联合起来实现其 ...

  5. HDFS分布式文件系统的常用命令行操作

    一.HDFS的客户端种类 1.网页形式  =>用于测试 网址为你的namenode节点的ip+50070的端口号,如: 192.168.50.128:50070 2.命令行形式 =>用于测 ...

  6. HDFS命令行及JAVA API操作

    查看进程 jps 访问hdfs: hadoop-root:50070 hdfs bash命令: hdfs dfs <1>   -help:  显示命令的帮助的信息 <2>  - ...

  7. kafka工作流程| 命令行操作

    1.  概述 数据层:结构化数据+非结构化数据+日志信息(大部分为结构化) 传输层:flume(采集日志--->存储性框架(如HDFS.kafka.Hive.Hbase))+sqoop(关系型数 ...

  8. HDFS基本命令行操作及上传文件的简单API

    一.HDFS基本命令行操作: 1.HDFS集群修改SecondaryNameNode位置到hd09-2 (1)修改hdfs-site.xml <configuration> //配置元数据 ...

  9. 命令行操作svn和git和git

    前几天在写代码的时候电脑突然坏掉,老大交代的任务没完成,非常痛恨自己用svn或者git保存代码,相信很多程序员遇到过,硬盘坏掉,存在硬盘中的代码丢失,无法找回的问题,svn和git可谓程序员界的福音, ...

随机推荐

  1. 第二篇【Zabbix客户端的完整布署】

    关于Zabbix服务端布署请查看 1.上传zabbix安装包(源码包默认(Server和Agent是一起的)) [root@sms-v2 ~]# ll /root/ -rw-r--r-- root r ...

  2. 在github新建一个项目里需要哪些文件及作用

    1.README.md文件 关于项目的介绍和使用方法. 2.  .gitignore文件 上传项目时不需要传的文件,最常用的就是“node_modules/",如下: 详细的介绍可以去git ...

  3. LAMP 搭建,wordpress.xcache,powerdns及poweradmin

    一,概念 CGI: CGI全称是通用网关接口(Common Gateway Interface),是外部应用程序与与服务器之间的接口标准,是在CGI程序和web服务器之间传递信息的规程 CGI是一段程 ...

  4. [Linux系统] (3)应用安装方式详解(编译安装、rpm包安装、yum安装)

    软件的安装方式: 编译安装 RPM包安装 yum安装 一.编译安装 1.下载一个源码安装包:tengine-2.3.0.tar.gz.这是淘宝二次开发过的nginx.将其解压. .tar.gz 2.查 ...

  5. ship(动态规划)

    (ships.pas/c/cpp) 来源:<奥赛经典>(提高篇)[问题描述]PALMIA国家被一条河流分成南北两岸, 南北两岸上各有N个村庄. 北岸的每一个村庄有一个唯一的朋友在南岸,且他 ...

  6. White Lines

    D. White Lines 主要思路就是利用差分 对于行:如果在某一个点上,向右下角涂掉 k*k 的矩形能够使得新出现一行 "B" 那么就在这个点上 +1(这里的加 +1 需要利 ...

  7. 分布式-信息方式-ActiveMQ的消息存储持久化

    ActiveMQ的消息存储持久化■概述ActiveMQ不仅支持 persistent和 non-persistent两种方式,还支持消息的恢复( recovery)方式PTPQueue的存储是很简单的 ...

  8. python3笔记十八:python列表元组字典集合文件操作

    一:学习内容 列表元组字典集合文件操作 二:列表元组字典集合文件操作 代码: import pickle  #数据持久性模块 #封装的方法def OptionData(data,path):    # ...

  9. LeetCode 300. 最长上升子序列(Longest Increasing Subsequence)

    题目描述 给出一个无序的整形数组,找到最长上升子序列的长度. 例如, 给出 [10, 9, 2, 5, 3, 7, 101, 18], 最长的上升子序列是 [2, 3, 7, 101],因此它的长度是 ...

  10. Git:本地项目与远程仓库的git/clone

      版权声明:本文为博主原创文章,未经博主允许不得转载. https://blog.csdn.net/qq_40197828/article/details/79283278 初识Git命令行将本地项 ...