HDFS02 HDFS的Shell操作
HDFS的Shell操作(开发重点)
基本语法
方式1: hadoop fs 具体命令
方式2: hdfs dfs 具体命令

常用命令
一共分三大类命令:上传、下载、HDFS直接操作
准备工作
1.启动Hadoop集群
[ranan@hadoop102 hadoop-3.1.3]$ myhadoop.sh start
# 或者也可以像之前一样分别在102,103上使用以下两个命令:
[ranan@hadoop102 hadoop-3.1.3]$ sbin/start-dfs.sh
[ranana@hadoop103 hadoop-3.1.3]$ sbin/start-yarn.sh
2.查看命令帮助,如果对某个命令的用法不清楚
[ranan@hadoop102 ~]$ hadoop fs -help rm
3.创建/sanguo文件
[ranan@hadoop102 hadoop-3.1.3]$ hadoop fs -mkdir /sanguo

后续的命令在该文件夹下操作
上传
-moveFromLocal 剪切
从本地剪切粘贴到HDFS
基本语法:hadoop fs -moveFromLocal 原文件 上传路径
[ranan@hadoop102 hadoop-3.1.3]$ vim shuguo.txt
[ranan@hadoop102 hadoop-3.1.3]$ hadoop fs -moveFromLocal ./shuguo.txt /sanguo


-copyFromLocal 拷贝
从本地文件系统中拷贝文件到HDFS路径
基本语法:hadoop fs -copyFromLocal 原文件 上传路径
[ranan@hadoop102 hadoop-3.1.3]$ vim weiguo.txt
[ranan@hadoop102 hadoop-3.1.3]$ hadoop fs -copyFromLocal weiguo.txt /sanguo


-put 拷贝 (常用)
等同于copyFromLocal,生产环境更习惯用put
基本语法:hadoop fs -put 原文件 上传路径
[ranan@hadoop102 hadoop-3.1.3]$ vim wuguo.txt
[ranan@hadoop102 hadoop-3.1.3]$ hadoop fs -put wuguo.txt /sanguo
-appendToFile 追加
追加一个文件到已经存在的文件末尾
文件只能追加,不能修改
基本语法:hadoop fs -appendToFile 追加的文件 被追加的文件
[ranan@hadoop102 hadoop-3.1.3]$ vim liubei.txt
[ranan@hadoop102 hadoop-3.1.3]$ hadoop fs -appendToFile liubei.txt /sanguo/shuguo.txt

下载
-copyToLocal 下载
从HDFS拷贝到本地
基本语法:hadoop fs -copyToLocal HDFS的路径 拷贝到本地的路径
[ranan@hadoop102 hadoop-3.1.3]$ hadoop fs -copyToLocal /sanguo/shuguo.txt ./

-get 下载
等同于copyToLocal,生产环境更习惯用get
[ranan@hadoop102 hadoop-3.1.3]$ hadoop fs -get /sanguo/shuguo.txt ./shuguo2.txt
下载的时候可以改文件名

HDFS直接操作
基本使用于linux相同
-ls 显示目录信息
[ranan@hadoop102 hadoop-3.1.3]$ hadoop fs -ls /sanguo

-cat 显示文件内容
[ranan@hadoop102 hadoop-3.1.3]$ hadoop fs -cat /sanguo/shuguo.txt

-chgrp/-chmod/-chown/ 修改文件所属权限
和Linux文件系统中的用法一样
[ranan@hadoop102 hadoop-3.1.3]$ hadoop fs -chgrp ranan /sanguo/shuguo.txt


-mkdir 创建路径
[ranan@hadoop102 hadoop-3.1.3]$ hadoop fs -mkdir /jinguo

-cp HDFS中拷贝
将shuguo.txt拷贝到/jinguo
[ranan@hadoop102 hadoop-3.1.3]$ hadoop fs -cp /sanguo/shuguo.txt /jinguo


-mv 在HDFS目录中移动文件
mv oldNameFile newNameFile(重命名)
mv 原目录 目标目录(移动剪切)
[ranan@hadoop102 hadoop-3.1.3]$ hadoop fs -mv /sanguo/wuguo.txt /jinguo
[ranan@hadoop102 hadoop-3.1.3]$ hadoop fs -mv /sanguo/weiguo.txt /jinguo

-tail 显示文件末尾的数据
显示文件末尾1kb的数据。因为只能追加修改,末尾的一般是最新的。
[ranan@hadoop102 hadoop-3.1.3]$ hadoop fs -tail /jinguo/shuguo.txt

-rm 删除文件/文件夹
删除指令要注意使用
-rm 删除文件或文件夹
-rm -r 递归删除文件夹及文件夹里面的类容
[ranan@hadoop102 hadoop-3.1.3]$ hadoop fs -rm /sanguo/shuguo.txt
[ranan@hadoop102 hadoop-3.1.3]$ hadoop fs -rm -r /sanguo

-du 统计文件夹的大小信息
-s 显示总共的
-h 显示具体的细节
[ranan@hadoop102 hadoop-3.1.3]$ hadoop fs -du -s /jinguo
[ranan@hadoop102 hadoop-3.1.3]$ hadoop fs -du -h /jinguo

-setrep 设置HDFS中文件的副本数量
[ranan@hadoop102 hadoop-3.1.3]$ hadoop fs -setrep 10 /jinguo/shuguo.txt
但是我们只有三台服务器,实际还是只有3个副本。因为每台机器只能存储其一份副本
副本数会记录在 NameNode 的元数据中,如果后续增加服务器,会拷贝副本过去。

HDFS02 HDFS的Shell操作的更多相关文章
- Hadoop开发第6期---HDFS的shell操作
一.HDFS的shell命令简介 我们都知道HDFS 是存取数据的分布式文件系统,那么对HDFS 的操作,就是文件系统的基本操作,比如文件的创建.修改.删除.修改权限等,文件夹的创建.删除.重命名等. ...
- 大数据:Hadoop(JDK安装、HDFS伪分布式环境搭建、HDFS 的shell操作)
所有的内容都来源与 Hadoop 官方文档 一.Hadoop 伪分布式安装步骤 1)JDK安装 解压:tar -zxvf jdk-7u79-linux-x64.tar.gz -C ~/app 添加到系 ...
- Hadoop读书笔记(二)HDFS的shell操作
Hadoop读书笔记(一)Hadoop介绍:http://blog.csdn.net/caicongyang/article/details/39898629 1.shell操作 1.1全部的HDFS ...
- HDFS基本shell操作
在客户端输入Hadoop fs,可以查看所有的,hadoop shell # -help [cmd] //显示命令的帮助信息,如: hadoop fs -help ls # -ls(r) <pa ...
- HDFS的shell操作
bin/hadoop命令操作: namenode -format 格式化文件系统 fs(缩写:FileSystem) 运行一个文件系统的用户客户端 bin/hadoop fs常用命令操作: -ls h ...
- [HDFS_2] HDFS 的 Shell 操作
0. 说明 在 Shell 下完成对 HDFS 的增删改查操作 1. 在 Shell 下完成对 HDFS 的增删改查操作 [1.0 查看帮助] [centos@s101 ~]$ hdfs dfs -h ...
- Hadoop框架之HDFS的shell操作
既然HDFS是存取数据的分布式文件系统,那么对HDFS的操作,就是文件系统的基本操作,比如文件的创建.修改.删除.修改权限等,文件夹的创建.删除.重命名等.对HDFS的操作命令类似于Linux的she ...
- Hadoop HDFS的Shell操作实例
本文发表于本人博客. 我们知道HDFS是Hadoop的分布式文件系统,那既然是文件系统那最起码会有管理文件.文件夹之类的功能吧,这个类似我们的Windows操作系统一样的吧,创建.修改.删除.移动.复 ...
- 4 weekend110的hdfs&mapreduce测试 + hdfs的实现机制初始 + hdfs的shell操作 + 无密登陆配置
Hdfs是根/目录,windows是每一个盘符, 1 从Linux里传一个到,hdfs里去 2 从hdfs里下一个到,linux里去 想从hdfs里,下载到linux, 涨知识,记住,hdfs是建 ...
随机推荐
- Taylor公式原来可以这么简单
1.Taylor公式 解决:含有高阶导数的中值定理或定积分.极限运算等题目 条件:f(x)在x=x0领域内(n+1)阶可导 结论:f(x)=Pn(x)+Rn(x) 2.x和x0的取值 3.Taylor ...
- cf 11D A Simple Task(状压DP)
题意: N个点构成的无向图,M条边描述这个无向图. 问这个无向图中共有多少个环. (1 ≤ n ≤ 19, 0 ≤ m) 思路: 例子: 4 6 1 2 1 3 1 4 2 3 2 4 3 4 答案: ...
- 【mysql2】下载安装mysql5.7版|不再更新系列
一.下载MySQL 5.7 版 MySQL 5.7 版:官网下载地址 https://dev.mysql.com/downloads/windows/installer/5.7.html 下载的是50 ...
- 远程设备管理opendx平台搭建-server,agent以及front实际搭建
本系列文章讲述的是一个系列的第二部分,最终可以搭建一整套设备远程管理平台,与stf不同的是,opendx搭建较为简单,而且由于底层是appium来支持的,所以,较容易支持ios,也容易支持更高版本的安 ...
- Redis网络库源码分析(2)之启动服务器
一.从main开始 main函数定义在server.c中,它的内容如下: //server.c int main() { signal(SIGPIPE, SIG_IGN); //忽略SIGPIPE信号 ...
- Linux&C网络编程————“聊天室”
从上周到现在一直在完成最后的项目,自己的聊天室,所以博客就没怎么跟了,今天晚上自己的聊天室基本实现,让学长检查了,也有好些bug,自己还算满意,主要实现的功能有: 登录注册 附近的人(服务器端全部在线 ...
- 攻防世界 Misc 新手练习区 坚持60s Writeup
攻防世界 Misc 新手练习区 坚持60s Writeup 题目介绍 题目考点 java反编译 jd-gui 的使用 Writeup 下载附件并打开 kali执行命令 java -jar 9dc125 ...
- python -m参数
把模块当做脚本运行,标准库和第三方库都可以 会把当前路径添加到sys.path中
- Nginx通过ngx_http_limit_req_module实现限制请求数、限速、白名单
/etc/nginx/limit/white_list:白名单,key-value形式,支持掩码网段 #test 192.168.50.42 0; 192.168.50.0/24 0; /etc/ng ...
- Maven 源码解析:依赖调解是如何实现的?
系列文章目录(请务必按照顺序阅读): Maven 依赖调解源码解析(一):开篇 Maven 依赖调解源码解析(二):如何调试 Maven 源码和插件源码 Maven 依赖调解源码解析(三):传递依赖, ...