Hadoop HDFS的Shell操作实例
本文发表于本人博客。
我们知道HDFS是Hadoop的分布式文件系统,那既然是文件系统那最起码会有管理文件、文件夹之类的功能吧,这个类似我们的Windows操作系统一样的吧,创建、修改、删除、移动、复制、修改权限等这些操作。 那我们现在来看看hadoop下是怎么操作的。
先输入hadoop fs命令,会看到如下输出:
Usage: java FsShell
[-ls <path>]
[-lsr <path>]
[-du <path>]
[-dus <path>]
[-count[-q] <path>]
[-mv <src> <dst>]
[-cp <src> <dst>]
[-rm [-skipTrash] <path>]
[-rmr [-skipTrash] <path>]
[-expunge]
[-put <localsrc> ... <dst>]
[-copyFromLocal <localsrc> ... <dst>]
[-moveFromLocal <localsrc> ... <dst>]
[-get [-ignoreCrc] [-crc] <src> <localdst>]
[-getmerge <src> <localdst> [addnl]]
[-cat <src>]
[-text <src>]
[-copyToLocal [-ignoreCrc] [-crc] <src> <localdst>]
[-moveToLocal [-crc] <src> <localdst>]
[-mkdir <path>]
[-setrep [-R] [-w] <rep> <path/file>]
[-touchz <path>]
[-test -[ezd] <path>]
[-stat [format] <path>]
[-tail [-f] <file>]
[-chmod [-R] <MODE[,MODE]... | OCTALMODE> PATH...]
[-chown [-R] [OWNER][:[GROUP]] PATH...]
[-chgrp [-R] GROUP PATH...]
[-help [cmd]]
这个显示了hadoop fs支持的命令,比如(启动hadoop服务)在终端输入:
hadoop fs -ls /
也可以输入:
hadoop fs -ls hdfs://hadoop-master:9000/
如果不知道具体使用那么我们可以使用最后的一个命令[-help [cmd]],比如查看ls命令帮助输入:
hadoop fs -help ls
那么就会输出便于我们查看帮助:
-ls <path>: List the contents that match the specified file pattern. If
path is not specified, the contents of /user/<currentUser>
will be listed. Directory entries are of the form
dirName (full path) <dir>
and file entries are of the form
fileName(full path) <r n> size
where n is the number of replicas specified for the file
and size is the size of the file, in bytes.
至于我们在shell下操作,我想醉常见的莫过于创建文件夹、上传文件、删除文件文件夹、修改权限、查看文件内容这几个了,下面我来一个个说。
创建文件夹输入:
hadoop fs -mkdir /data
就会在根目录创建一个data文件夹;
可以使用下面命令查看:
hadoop fs -ls /
输出:
Found 2 items
drwxr-xr-x - hadoop supergroup 0 2014-12-15 19:00 /data
drwxr-xr-x - hadoop supergroup 0 2014-12-10 22:26 /usr
这个格式很像linux下的shell哦,drwxr-xr-x开头的d代表的是目录,这个跟linux谁一样的了,第二个字符‘-’表示副本数,此时文件夹是没有的因为文件夹是逻辑结构组成的,只有文件才有值。具体说明可以参考hadoo fs -help ls。
现在上传一个文件至/data下,我们使用:
hadoop fs -put ./test.txt /data/
再使用下面命令查看:
hadoop fs -ls /data
输出:
Found 1 items
-rw-r--r-- 1 hadoop supergroup 33 2014-12-15 19:05 /data/test.txt
此时-rw-r--r--可以看出表示是文件,副本数1。
那下面我们来查看一下上传的内容是不是跟本地的一样,我们可以使用命令:
hadoop fs -text /data/test.txt
这里输出不在对比了。这时我们使用了新的命令-text。查看文件内容的命令,具体参考
hadoop fs -help text
现在我们对刚创建的/data文件夹进行权限修改,先看当前的权限:
Found 2 items
drwxr-xr-x - hadoop supergroup 0 2014-12-15 19:05 /data
drwxr-xr-x - hadoop supergroup 0 2014-12-10 22:26 /usr
现在我们执行下面命令,把/data文件夹已经起下面的所有文件夹文件度改为777:
hadoop fs -chmod -R 777 /data
再使用下面命令查看:
hadoop fs -lsr /
结果:
drwxrwxrwx - hadoop supergroup 0 2014-12-15 19:05 /data
-rw-rw-rw- 1 hadoop supergroup 33 2014-12-15 19:05 /data/test.txt
drwxr-xr-x - hadoop supergroup 0 2014-12-10 22:26 /usr
drwxr-xr-x - hadoop supergroup 0 2014-12-10 22:56 /usr/local
drwxr-xr-x - hadoop supergroup 0 2014-12-10 22:56 /usr/local/hadoop
drwxr-xr-x - hadoop supergroup 0 2014-12-10 22:56 /usr/local/hadoop/tmp
drwxr-xr-x - hadoop supergroup 0 2014-12-15 18:47 /usr/local/hadoop/tmp/mapred
drwx------ - hadoop supergroup 0 2014-12-15 18:47 /usr/local/hadoop/tmp/mapred/system
-rw------- 1 hadoop supergroup 4 2014-12-15 18:47 /usr/local/hadoop/tmp/mapred/system/jobtracker.info
这时候的/data的权限已经更改了,连其文件夹下面的文件也更改了!不过这里我注意到这个文本文件的话即时更改为777但是执行权限也没有,不知道为什么。但是在linux是rwx的!下面我们再使用命令看看:
hadoop fs -chmod -R a+x /data
再使用:
hadoop fs -lsr /
结果就这里不显示了,但是还是未更改文本文件的执行权限,还是一样!可能真的是无法更改吧!
-rw-rw-rw- 1 hadoop supergroup 33 2014-12-15 19:05 /data/test.txt
上面几个尝试了,感觉就跟linux一样了,简单有时在调试的时候可以执行命令查看下,即将结束那就把上面创建的文件夹删除吧,执行:
hadoop fs -rmr /data
当然还有这个命令:
hadoop fs -rm /data/test.txt
这里我就不说它们的区别的了,我想熟悉linxu命令的都应该知道了!
这次先到这里。坚持记录点点滴滴!
Hadoop HDFS的Shell操作实例的更多相关文章
- Hadoop开发第6期---HDFS的shell操作
一.HDFS的shell命令简介 我们都知道HDFS 是存取数据的分布式文件系统,那么对HDFS 的操作,就是文件系统的基本操作,比如文件的创建.修改.删除.修改权限等,文件夹的创建.删除.重命名等. ...
- 大数据:Hadoop(JDK安装、HDFS伪分布式环境搭建、HDFS 的shell操作)
所有的内容都来源与 Hadoop 官方文档 一.Hadoop 伪分布式安装步骤 1)JDK安装 解压:tar -zxvf jdk-7u79-linux-x64.tar.gz -C ~/app 添加到系 ...
- HDFS02 HDFS的Shell操作
HDFS的Shell操作(开发重点) 目录 HDFS的Shell操作(开发重点) 基本语法 常用命令 准备工作 上传 -moveFromLocal 剪切 -copyFromLocal 拷贝 -put ...
- Hadoop HDFS文件常用操作及注意事项
Hadoop HDFS文件常用操作及注意事项 1.Copy a file from the local file system to HDFS The srcFile variable needs t ...
- Hadoop HDFS的shell(命令行客户端)操作实例
HDFS的shell(命令行客户端)操作实例 3.2 常用命令参数介绍 -help 功能:输出这个命令参数手册 -ls 功能:显示目录信息 示例: hadoop fs ...
- Hadoop读书笔记(二)HDFS的shell操作
Hadoop读书笔记(一)Hadoop介绍:http://blog.csdn.net/caicongyang/article/details/39898629 1.shell操作 1.1全部的HDFS ...
- Hadoop(6)-HDFS的shell操作
1.基本语法 使用 hadoop fs 具体命令 或者 hdfs dfs 具体命令 hadoop命令的shell源码 hdfs命令的shell源码 由此可见,这两个命令最后都是执行的一个jav ...
- HDFS的shell操作
bin/hadoop命令操作: namenode -format 格式化文件系统 fs(缩写:FileSystem) 运行一个文件系统的用户客户端 bin/hadoop fs常用命令操作: -ls h ...
- HDFS基本shell操作
在客户端输入Hadoop fs,可以查看所有的,hadoop shell # -help [cmd] //显示命令的帮助信息,如: hadoop fs -help ls # -ls(r) <pa ...
随机推荐
- Linux select 机制深入分析
Linux select 机制深入分析 作为IO复用的实现方式.select是提高了抽象和batch处理的级别,不是传统方式那样堵塞在真正IO读写的系统调用上.而是堵塞在sele ...
- LeetCode——Binary Tree Preorder Traversal
Given a binary tree, return the preorder traversal of its nodes' values. For example: Given binary t ...
- 高级类特性----static关键字
static 关键字 当我们编写一个类时,其实就是在描述其对象的属性和行为,而并没有产生实质上的对象,只有通过new关键字才会产生出对象,这时系统才会分配内存空间给对象,其方法才可以供外部调用. 我们 ...
- Python 解压缩Zip和Rar文件到指定目录
#__author__ = 'Joker'# -*- coding:utf-8 -*-import urllibimport osimport os.pathimport zipfilefrom zi ...
- 查看进程动态:top
top命令用于查看进程动态,即进程使用系统资源的情况,常见用法如下: [root@localhost ~]$ top # 动态查看进程使用资源的情况,每三秒刷新一次 [root@localhost ~ ...
- lodash(二)对象+循环遍历+排序
前言: lodash(一)中只是研究了array中的多种方法,接下来就是经常用到的循环遍历问题 过程: 1._.forEach(collection, [iteratee=_.identity], [ ...
- <转>Logistic回归总结
转自http://blog.csdn.net/dongtingzhizi/article/details/15962797 当我第一遍看完台大的机器学习的视频的时候,我以为我理解了逻辑回归,可后来越看 ...
- poj_2286 线段树
题目大意 在墙上贴海报,墙壁是由一排连续的瓷砖铺成,海报贴在墙壁上必须占据连续的几块瓷砖,海报可以互相覆盖,问最后可以看见几张海报(未被完全覆盖). 题目分析 墙壁是由连续的一个区间构成,每个海报占据 ...
- MQTT的学习研究(十五) MQTT 和android整合文章
详细参考: How to Implement Push Notifications for Android http://tokudu.com/2010/how-to-implement-push- ...
- Android 获取系统默认输入法
import android.provider.Settings; import android.text.TextUtils; 获取默认输入法包名: private String getDefaul ...