【Hadoop】HDFS笔记(三):HDFS的Shell操作
HDFS处理文件的命令和Linux命令差不多,但注意区分大小写。
(Linux区分大小写,Windows不区分大小写)
一、fs命令
键入命令“./bin/hadoop fs”将输出能够支持的命令列表。
Usage: java FsShell
[-ls <path>]
[-lsr <path>]
[-df <path>]
[-du [-s] [-h] <path>]
[-dus <path>]
[-count [-q] <path>]
[-mv <src> <dst>]
[-cp <src> <dst>]
[-rm [-skipTrash] <path>]
[-rmr [-skipTrash] <path>]
[-expunge]
[-put <localsrc> … <dst>]
[-copyFromLocal <localsrc> … <dst>]
[-moveFromLocal <localsrc> … <dst>]
[-get [-ignoreCrc] [-crc] <src> <localdst>]
[-getmerge <src> <localdst> [addnl]]
[-cat <src>]
[-text <src>]
[-copyToLocal [-ignoreCrc] [-crc] <src> <localdst>]
[-moveToLocal [-crc] <src> <localdst>]
[-mkdir <path>]
[-setrep [-R] [-w] <rep> <path/file>]
[-touchz <path>]
[-test –[ezd] <path>]
[-stat [format] <path>]
[-tail [-f] <file>]
[-chmod [-R] <MODE[, MODE] … | OCTALMODE> PATH…]
[-chown [-R] [OWNER] [: [GROUP]] PATH…]
[-chmod [-R] GROUP PATH…]
[-help [cmd]]
下面说说最主要的几个命令。
1. 创建文件夹
HDFS上的文件目录结构类似Linux,根目录使用/表示。下面的命令在/user/hadoop目录下建立input。
denny@Ubuntu1:/opt/hadoop-1.0.3$ hadoop fs –mkdir /user/hadoop/input
denny@Ubuntu1:/opt/hadoop-1.0.3$ hadoop fs –ls /user/hadoop
Found1 items
drwxr-xr-x - denny supergroup 0 2014-09-21 23:38 /user/hadoop/input
2. 上传文件test.txt到input下。
denny@Ubuntu1:/opt/hadoop-1.0.3$ hadoop fs –put test.txt /user/hadoop/input
denny@Ubuntu1:/opt/hadoop-1.0.3$ hadoop fs –ls /user/hadoop/input
Found1 items
-rw-r--r--1 denny supergroup 75 2014-09-21 23:45 /user/hadoop/input/test.txt
还可以用-copyFromLocal命令。
3.查看test.txt文件内容
denny@Ubuntu1:/opt/hadoop-1.0.3$ hadoop fs –text /user/hadoop/input/test.txt
helloworld
helloworld…
还可以用-cat、-tail命令查看文件内容,但是对于压缩文件只能用-text参数查看,否则是乱码。
4.把test.txt文件复制到本地(下载,导出)
denny@Ubuntu1:/opt/hadoop-1.0.3$ hadoop fs –get /user/hadoop/input/test.txt
还可以用-copyToLocal命令。
5.删除test.txt文件
denny@Ubuntu1:/opt/hadoop-1.0.3$ hadoop fs –rm /user/hadoop/input/test.txt
二、namenode命令
运行namenode进行格式化、升级、回滚等操作。
命令选项 |
功能描述 |
-format |
格式化NameNode,启动NameNode,格式化NameNode,之后关闭NameNode |
-upgrade |
分发新版本的Hadoop后,NameNode应以upgrade选项启动 |
-rollback |
将NameNode回滚到前一版本。此选项要在停止集群、分发Hadoop旧版本后使用 |
-finalize |
删除文件系统的前一状态。最近的升级会被持久化,rollback选项将再不可用升级终结操作之后,会停掉NameNode |
-importCheckPoint |
从检查点目录装在镜像并保存到当前检查点目录,检查点目录由fs.checkpoint.dir指定 |
(注:Hadoop集群第一次启动时一定要格式化NameNode,否则NameNode会报错)
三、job命令
命令选项 |
功能描述 |
-submit <job file> |
提交作业 |
-status <job-id> |
打印Map和Reduce完成百分比和所计数器 |
-counter <job-id> <group-name> <counter-name> |
打印计数器的值 |
-kill <job-id> |
杀死指定作业 |
-events <job-id> <from-event-#> <#-of-events> |
打印给定范围内的JobTracker接收到的事件细节 |
-history [all] <jobOutputDir> |
-history <jobOutputDir>用于打印作业细节,失败及被杀死原因细节。更多关于一个作业细节(如成功的任务、做过的任务尝试等信息)可以通过指定[all]选项查看 |
-list [all] |
显示所有作业。-list只显示将要完成的作业 |
-kill-task <task-id> |
杀死任务,被杀死的任务不会不利于失败尝试 |
-fail-task <task-id> |
使任务失败,被失败的任务会对失败尝试不利 |
四、fsck命令
显示块的信息,列出文件系统中各文件由那些块构成。用于和MapReduce作业交互和命令。
命令选项 |
描述信息 |
<path> |
检查起始的目录 |
-move |
移动受损文件到/lost+found |
-delete |
删除受损文件 |
openforwrite |
打印写打开的文件 |
-files |
打印正在被检查的文件 |
-blocks |
打印块信息报告 |
-locations |
打印每个块的位置信息 |
-racks |
打印datanode的网络拓扑结构 |
五、pipe命令
该命令用于运行pipe作业。
命令选项 |
描述信息 |
-conf <path> |
作业的配置 |
-jobconf <key=value>, <key=value>, … |
增加/覆盖作业的配置项 |
-input <path> |
输入目录 |
-output <path> |
输出目录 |
-jar<jar file> |
JAR文件名 |
-inputformat <class> |
InputFormat类 |
-map <class> |
Java Map类 |
-partitioner <class> |
Java Partitioner |
-reduce <class> |
Java Reduce类 |
-write <class> |
Java RecordWriter |
-program <executable> |
可执行程序的URI |
-reduces <num> |
Reduce个数 |
【Hadoop】HDFS笔记(三):HDFS的Shell操作的更多相关文章
- Hadoop学习笔记(三) ——HDFS
参考书籍:<Hadoop实战>第二版 第9章:HDFS详解 1. HDFS基本操作 @ 出现的bug信息 @-@ WARN util.NativeCodeLoader: Unable to ...
- Hadoop学习笔记(2)-HDFS的基本操作(Shell命令)
在这里我给大家继续分享一些关于HDFS分布式文件的经验哈,其中包括一些hdfs的基本的shell命令的操作,再加上hdfs java程序设计.在前面我已经写了关于如何去搭建hadoop这样一个大数据平 ...
- Hadoop学习笔记: HDFS
注:该文内容部分来源于ChinaHadoop.cn上的hadoop视频教程. 一. HDFS概述 HDFS即Hadoop Distributed File System, 源于Google发表于200 ...
- shell脚本编程学习笔记(四)shell操作数据库
一.数据库基本操作 1)登录mysql服务器:mysql -u root -p 密码 2)查看数据库:show databases 3)查看表:show tales from db; 4)查看表结构: ...
- hadoop学习笔记贰 --HDFS及YARN的启动
1.初始化HDFS :hadoop namenode -format 看到如下字样,说明初始化成功. 启动HDFS,start-dfs.sh 终于启动成功了,原来是core-site.xml 中配置 ...
- Hadoop学习笔记三
一.设置HDFS不进行权限检查 默认的HDFS上的文件类似于Linux中的文件,是有权限的.例如test用户创建的文件,root用户如果没有写权限,则不能进行删除. 有2种办法进行修改,修改文件的权限 ...
- MYSQL初级学习笔记三:数据的操作DML!(视频序号:初级_24,25,36)
知识点五:数据的操作DML(24,25,36) 插入数据: --测试插入记录INSERT CREATE TABLE IF NOT EXISTS user13( id TINYINT UNSIGNED ...
- SQL学习笔记三之MySQL表操作
阅读目录 一 存储引擎介绍 二 表介绍 三 创建表 四 查看表结构 五 数据类型 六 表完整性约束 七 修改表ALTER TABLE 八 复制表 九 删除表 一 存储引擎介绍 存储引擎即表类型,mys ...
- Hibernate学习笔记三:常用数据库操作语句
转载请注明原文地址: 一:HQL 1:HQL语句格式:select from POJO类名 where 条件表达式 group by 属性 having 聚集函数 order by 属性 [其中,fr ...
- Hadoop读书笔记(二)HDFS的shell操作
Hadoop读书笔记(一)Hadoop介绍:http://blog.csdn.net/caicongyang/article/details/39898629 1.shell操作 1.1全部的HDFS ...
随机推荐
- Audio原理图设计
1.DMIC 1)当双MIC时,通过MIC上的Selection PIN脚PULL U/D进行左右channel选择.
- .NET 4.0 WCF WebConfig aspNetCompatibilityEnabled 属性
近来被一个问题困扰了好久,好好的一个WCF后台服务,在发布机器上可用.在自己机器上没法跑起来. 一直提示兼容性问题,后来在网上找来解决方案,但问题依旧.没办法又从客户的服务器上重新把配置内容 拿下来审 ...
- java: private, protected, public
这三个 「可访问修饰符」,是一个老生常谈的话题了.在 C++ 中也有类似的概念. 按其修饰对象的不同,分为几种用法小记一下: 用于类 只有 public 可以修饰类:private 和 protect ...
- 基于EfCore的一个多租户Demo
六月份如愿的转入了架构组,先上手搞了个CI服务器,把架构组的几个项目撸到上面去了.效果不错,接着就把其他两个项目组有单元测试的项目撸上去了,在桌子上放了个显示器当大屏用. 因为公司准备进行一个大的系统 ...
- 怎么将linux的动态IP设置成静态IP
例如我的eth0网卡信息如下 eth0 Link encap:Ethernet HWaddr :0C::AA:B2:CA inet addr:192.168.79.135 Bcast:192.168. ...
- jni集成第3方third party动态库libwebrtc_audio_preprocessing.so时android.mk的编写
现在要调用一个第3方库libwebrtc_audio_preprocessing.so 最终布局如下: 即创建2个文件夹,将第3方库放进去. include目录放第3方库的头文件 其中lib目录如下 ...
- android studio 程序真机执行中文显示乱码
代码里中文显示正常,真机执行后中文显示乱码,解决的方法: build.gradle中加入一句 android { compileOptions.encoding = "GBK" }
- 2016/08/18 select
1.//得到select项的个数 2.jQuery.fn.size = function(){ 3. return jQuery(this).get(0).options.length; 4.} 5. ...
- 理解 React,但不理解 Redux,该如何通俗易懂的理解 Redux?
作者:Wang Namelos链接:https://www.zhihu.com/question/41312576/answer/90782136来源:知乎著作权归作者所有.商业转载请联系作者获得授权 ...
- Ubuntu下声卡驱动解决方法alsa
一.首先介绍一下什么是ALSA : Advanced Linux Sound Architecture 的简称为 ALSA ,译成中文的意思是先进的Linux声音架构(这是google翻译的):一谈到 ...