Hadoop HDFS的Shell操作实例
本文发表于本人博客。
我们知道HDFS是Hadoop的分布式文件系统,那既然是文件系统那最起码会有管理文件、文件夹之类的功能吧,这个类似我们的Windows操作系统一样的吧,创建、修改、删除、移动、复制、修改权限等这些操作。 那我们现在来看看hadoop下是怎么操作的。
先输入hadoop fs命令,会看到如下输出:
Usage: java FsShell
[-ls <path>]
[-lsr <path>]
[-du <path>]
[-dus <path>]
[-count[-q] <path>]
[-mv <src> <dst>]
[-cp <src> <dst>]
[-rm [-skipTrash] <path>]
[-rmr [-skipTrash] <path>]
[-expunge]
[-put <localsrc> ... <dst>]
[-copyFromLocal <localsrc> ... <dst>]
[-moveFromLocal <localsrc> ... <dst>]
[-get [-ignoreCrc] [-crc] <src> <localdst>]
[-getmerge <src> <localdst> [addnl]]
[-cat <src>]
[-text <src>]
[-copyToLocal [-ignoreCrc] [-crc] <src> <localdst>]
[-moveToLocal [-crc] <src> <localdst>]
[-mkdir <path>]
[-setrep [-R] [-w] <rep> <path/file>]
[-touchz <path>]
[-test -[ezd] <path>]
[-stat [format] <path>]
[-tail [-f] <file>]
[-chmod [-R] <MODE[,MODE]... | OCTALMODE> PATH...]
[-chown [-R] [OWNER][:[GROUP]] PATH...]
[-chgrp [-R] GROUP PATH...]
[-help [cmd]]
这个显示了hadoop fs支持的命令,比如(启动hadoop服务)在终端输入:
hadoop fs -ls /
也可以输入:
hadoop fs -ls hdfs://hadoop-master:9000/
如果不知道具体使用那么我们可以使用最后的一个命令[-help [cmd]],比如查看ls命令帮助输入:
hadoop fs -help ls
那么就会输出便于我们查看帮助:
-ls <path>: List the contents that match the specified file pattern. If
path is not specified, the contents of /user/<currentUser>
will be listed. Directory entries are of the form
dirName (full path) <dir>
and file entries are of the form
fileName(full path) <r n> size
where n is the number of replicas specified for the file
and size is the size of the file, in bytes.
至于我们在shell下操作,我想醉常见的莫过于创建文件夹、上传文件、删除文件文件夹、修改权限、查看文件内容这几个了,下面我来一个个说。
创建文件夹输入:
hadoop fs -mkdir /data
就会在根目录创建一个data文件夹;
可以使用下面命令查看:
hadoop fs -ls /
输出:
Found 2 items
drwxr-xr-x - hadoop supergroup 0 2014-12-15 19:00 /data
drwxr-xr-x - hadoop supergroup 0 2014-12-10 22:26 /usr
这个格式很像linux下的shell哦,drwxr-xr-x开头的d代表的是目录,这个跟linux谁一样的了,第二个字符‘-’表示副本数,此时文件夹是没有的因为文件夹是逻辑结构组成的,只有文件才有值。具体说明可以参考hadoo fs -help ls。
现在上传一个文件至/data下,我们使用:
hadoop fs -put ./test.txt /data/
再使用下面命令查看:
hadoop fs -ls /data
输出:
Found 1 items
-rw-r--r-- 1 hadoop supergroup 33 2014-12-15 19:05 /data/test.txt
此时-rw-r--r--可以看出表示是文件,副本数1。
那下面我们来查看一下上传的内容是不是跟本地的一样,我们可以使用命令:
hadoop fs -text /data/test.txt
这里输出不在对比了。这时我们使用了新的命令-text。查看文件内容的命令,具体参考
hadoop fs -help text
现在我们对刚创建的/data文件夹进行权限修改,先看当前的权限:
Found 2 items
drwxr-xr-x - hadoop supergroup 0 2014-12-15 19:05 /data
drwxr-xr-x - hadoop supergroup 0 2014-12-10 22:26 /usr
现在我们执行下面命令,把/data文件夹已经起下面的所有文件夹文件度改为777:
hadoop fs -chmod -R 777 /data
再使用下面命令查看:
hadoop fs -lsr /
结果:
drwxrwxrwx - hadoop supergroup 0 2014-12-15 19:05 /data
-rw-rw-rw- 1 hadoop supergroup 33 2014-12-15 19:05 /data/test.txt
drwxr-xr-x - hadoop supergroup 0 2014-12-10 22:26 /usr
drwxr-xr-x - hadoop supergroup 0 2014-12-10 22:56 /usr/local
drwxr-xr-x - hadoop supergroup 0 2014-12-10 22:56 /usr/local/hadoop
drwxr-xr-x - hadoop supergroup 0 2014-12-10 22:56 /usr/local/hadoop/tmp
drwxr-xr-x - hadoop supergroup 0 2014-12-15 18:47 /usr/local/hadoop/tmp/mapred
drwx------ - hadoop supergroup 0 2014-12-15 18:47 /usr/local/hadoop/tmp/mapred/system
-rw------- 1 hadoop supergroup 4 2014-12-15 18:47 /usr/local/hadoop/tmp/mapred/system/jobtracker.info
这时候的/data的权限已经更改了,连其文件夹下面的文件也更改了!不过这里我注意到这个文本文件的话即时更改为777但是执行权限也没有,不知道为什么。但是在linux是rwx的!下面我们再使用命令看看:
hadoop fs -chmod -R a+x /data
再使用:
hadoop fs -lsr /
结果就这里不显示了,但是还是未更改文本文件的执行权限,还是一样!可能真的是无法更改吧!
-rw-rw-rw- 1 hadoop supergroup 33 2014-12-15 19:05 /data/test.txt
上面几个尝试了,感觉就跟linux一样了,简单有时在调试的时候可以执行命令查看下,即将结束那就把上面创建的文件夹删除吧,执行:
hadoop fs -rmr /data
当然还有这个命令:
hadoop fs -rm /data/test.txt
这里我就不说它们的区别的了,我想熟悉linxu命令的都应该知道了!
这次先到这里。坚持记录点点滴滴!
Hadoop HDFS的Shell操作实例的更多相关文章
- Hadoop开发第6期---HDFS的shell操作
一.HDFS的shell命令简介 我们都知道HDFS 是存取数据的分布式文件系统,那么对HDFS 的操作,就是文件系统的基本操作,比如文件的创建.修改.删除.修改权限等,文件夹的创建.删除.重命名等. ...
- 大数据:Hadoop(JDK安装、HDFS伪分布式环境搭建、HDFS 的shell操作)
所有的内容都来源与 Hadoop 官方文档 一.Hadoop 伪分布式安装步骤 1)JDK安装 解压:tar -zxvf jdk-7u79-linux-x64.tar.gz -C ~/app 添加到系 ...
- HDFS02 HDFS的Shell操作
HDFS的Shell操作(开发重点) 目录 HDFS的Shell操作(开发重点) 基本语法 常用命令 准备工作 上传 -moveFromLocal 剪切 -copyFromLocal 拷贝 -put ...
- Hadoop HDFS文件常用操作及注意事项
Hadoop HDFS文件常用操作及注意事项 1.Copy a file from the local file system to HDFS The srcFile variable needs t ...
- Hadoop HDFS的shell(命令行客户端)操作实例
HDFS的shell(命令行客户端)操作实例 3.2 常用命令参数介绍 -help 功能:输出这个命令参数手册 -ls 功能:显示目录信息 示例: hadoop fs ...
- Hadoop读书笔记(二)HDFS的shell操作
Hadoop读书笔记(一)Hadoop介绍:http://blog.csdn.net/caicongyang/article/details/39898629 1.shell操作 1.1全部的HDFS ...
- Hadoop(6)-HDFS的shell操作
1.基本语法 使用 hadoop fs 具体命令 或者 hdfs dfs 具体命令 hadoop命令的shell源码 hdfs命令的shell源码 由此可见,这两个命令最后都是执行的一个jav ...
- HDFS的shell操作
bin/hadoop命令操作: namenode -format 格式化文件系统 fs(缩写:FileSystem) 运行一个文件系统的用户客户端 bin/hadoop fs常用命令操作: -ls h ...
- HDFS基本shell操作
在客户端输入Hadoop fs,可以查看所有的,hadoop shell # -help [cmd] //显示命令的帮助信息,如: hadoop fs -help ls # -ls(r) <pa ...
随机推荐
- Python 收集主机信息
写一个 python 脚本,收集以下信息 ( CentOS 6 ) : IP地址 <ip> 主机名 <hostname> 操作系统版本 <osver> ...
- JavaScript作用域原理——预编译
JavaScript是一种脚本语言, 它的执行过程, 是一种翻译执行的过程.并且JavaScript是有预编译过程的,在执行每一段脚本代码之前, 都会首先处理var关键字和function定义式(函数 ...
- InstallShield程序打包图解
InstallShield程序打包图解 VS2012中打包工具被看做程序集,在使用时和程序集一样被创建到程序解决方案下.需要我们做的是添加项目即可.但是对于初次使用的朋友来说,我们需要根据提示 ...
- Change Base
Given an integer m in base B (2 ≤ B ≤ 10) (m contains no more than 1000 digits), find the value of t ...
- MQTT-SN协议乱翻之消息格式
前言 紧接着上篇初步介绍,本文为第二篇,主要梳理MQTT-SN 1.2协议中定义的消息格式. 通用消息格式 消息头 其它可变部分 2/4字节表示 N字节组成 消息头部 长度 消息类型 1或3个字节 1 ...
- 运行npm install出现警告
如下: 解决: fsevent是mac osx系统的,你是在win或者Linux下使用了 所以会有警告,忽略即可
- SDOI 2016 Round1 Day2
生成魔咒 /* 后缀数组+双向链表 参照:https://blog.csdn.net/clove_unique/article/details/53911757 */ #include<cstd ...
- 什么是真正的APM?
近年来APM行业被越来越多的企业所关注,尤其是在2014年末,NewRelic的成功上市,更加激发了人们对这个行业前景的无限遐想.那么究竟什么是APM?APM的目的是什么?要求我们做什么?有不少企业对 ...
- Codeforces 603E Pastoral Oddities
传送门:http://codeforces.com/problemset/problem/603/E [题目大意] 给出$n$个点,$m$个操作,每个操作加入一条$(u, v)$长度为$l$的边. 对 ...
- github(其他类似github)下载到本地配置
首先是先装完插件,低版本的myeclipse要自己装插件, 如何使window->show view->other找到git 注意是选第二个... 然后next->next-> ...