【Hadoop】HDFS笔记(三):HDFS的Shell操作
HDFS处理文件的命令和Linux命令差不多,但注意区分大小写。
(Linux区分大小写,Windows不区分大小写)
一、fs命令
键入命令“./bin/hadoop fs”将输出能够支持的命令列表。
Usage: java FsShell
[-ls <path>]
[-lsr <path>]
[-df <path>]
[-du [-s] [-h] <path>]
[-dus <path>]
[-count [-q] <path>]
[-mv <src> <dst>]
[-cp <src> <dst>]
[-rm [-skipTrash] <path>]
[-rmr [-skipTrash] <path>]
[-expunge]
[-put <localsrc> … <dst>]
[-copyFromLocal <localsrc> … <dst>]
[-moveFromLocal <localsrc> … <dst>]
[-get [-ignoreCrc] [-crc] <src> <localdst>]
[-getmerge <src> <localdst> [addnl]]
[-cat <src>]
[-text <src>]
[-copyToLocal [-ignoreCrc] [-crc] <src> <localdst>]
[-moveToLocal [-crc] <src> <localdst>]
[-mkdir <path>]
[-setrep [-R] [-w] <rep> <path/file>]
[-touchz <path>]
[-test –[ezd] <path>]
[-stat [format] <path>]
[-tail [-f] <file>]
[-chmod [-R] <MODE[, MODE] … | OCTALMODE> PATH…]
[-chown [-R] [OWNER] [: [GROUP]] PATH…]
[-chmod [-R] GROUP PATH…]
[-help [cmd]]
下面说说最主要的几个命令。
1. 创建文件夹
HDFS上的文件目录结构类似Linux,根目录使用/表示。下面的命令在/user/hadoop目录下建立input。
denny@Ubuntu1:/opt/hadoop-1.0.3$ hadoop fs –mkdir /user/hadoop/input
denny@Ubuntu1:/opt/hadoop-1.0.3$ hadoop fs –ls /user/hadoop
Found1 items
drwxr-xr-x - denny supergroup 0 2014-09-21 23:38 /user/hadoop/input
2. 上传文件test.txt到input下。
denny@Ubuntu1:/opt/hadoop-1.0.3$ hadoop fs –put test.txt /user/hadoop/input
denny@Ubuntu1:/opt/hadoop-1.0.3$ hadoop fs –ls /user/hadoop/input
Found1 items
-rw-r--r--1 denny supergroup 75 2014-09-21 23:45 /user/hadoop/input/test.txt
还可以用-copyFromLocal命令。
3.查看test.txt文件内容
denny@Ubuntu1:/opt/hadoop-1.0.3$ hadoop fs –text /user/hadoop/input/test.txt
helloworld
helloworld…
还可以用-cat、-tail命令查看文件内容,但是对于压缩文件只能用-text参数查看,否则是乱码。
4.把test.txt文件复制到本地(下载,导出)
denny@Ubuntu1:/opt/hadoop-1.0.3$ hadoop fs –get /user/hadoop/input/test.txt
还可以用-copyToLocal命令。
5.删除test.txt文件
denny@Ubuntu1:/opt/hadoop-1.0.3$ hadoop fs –rm /user/hadoop/input/test.txt
二、namenode命令
运行namenode进行格式化、升级、回滚等操作。
|
命令选项 |
功能描述 |
|
-format |
格式化NameNode,启动NameNode,格式化NameNode,之后关闭NameNode |
|
-upgrade |
分发新版本的Hadoop后,NameNode应以upgrade选项启动 |
|
-rollback |
将NameNode回滚到前一版本。此选项要在停止集群、分发Hadoop旧版本后使用 |
|
-finalize |
删除文件系统的前一状态。最近的升级会被持久化,rollback选项将再不可用升级终结操作之后,会停掉NameNode |
|
-importCheckPoint |
从检查点目录装在镜像并保存到当前检查点目录,检查点目录由fs.checkpoint.dir指定 |
(注:Hadoop集群第一次启动时一定要格式化NameNode,否则NameNode会报错)
三、job命令
|
命令选项 |
功能描述 |
|
-submit <job file> |
提交作业 |
|
-status <job-id> |
打印Map和Reduce完成百分比和所计数器 |
|
-counter <job-id> <group-name> <counter-name> |
打印计数器的值 |
|
-kill <job-id> |
杀死指定作业 |
|
-events <job-id> <from-event-#> <#-of-events> |
打印给定范围内的JobTracker接收到的事件细节 |
|
-history [all] <jobOutputDir> |
-history <jobOutputDir>用于打印作业细节,失败及被杀死原因细节。更多关于一个作业细节(如成功的任务、做过的任务尝试等信息)可以通过指定[all]选项查看 |
|
-list [all] |
显示所有作业。-list只显示将要完成的作业 |
|
-kill-task <task-id> |
杀死任务,被杀死的任务不会不利于失败尝试 |
|
-fail-task <task-id> |
使任务失败,被失败的任务会对失败尝试不利 |
四、fsck命令
显示块的信息,列出文件系统中各文件由那些块构成。用于和MapReduce作业交互和命令。
|
命令选项 |
描述信息 |
|
<path> |
检查起始的目录 |
|
-move |
移动受损文件到/lost+found |
|
-delete |
删除受损文件 |
|
openforwrite |
打印写打开的文件 |
|
-files |
打印正在被检查的文件 |
|
-blocks |
打印块信息报告 |
|
-locations |
打印每个块的位置信息 |
|
-racks |
打印datanode的网络拓扑结构 |
五、pipe命令
该命令用于运行pipe作业。
|
命令选项 |
描述信息 |
|
-conf <path> |
作业的配置 |
|
-jobconf <key=value>, <key=value>, … |
增加/覆盖作业的配置项 |
|
-input <path> |
输入目录 |
|
-output <path> |
输出目录 |
|
-jar<jar file> |
JAR文件名 |
|
-inputformat <class> |
InputFormat类 |
|
-map <class> |
Java Map类 |
|
-partitioner <class> |
Java Partitioner |
|
-reduce <class> |
Java Reduce类 |
|
-write <class> |
Java RecordWriter |
|
-program <executable> |
可执行程序的URI |
|
-reduces <num> |
Reduce个数 |
【Hadoop】HDFS笔记(三):HDFS的Shell操作的更多相关文章
- Hadoop学习笔记(三) ——HDFS
参考书籍:<Hadoop实战>第二版 第9章:HDFS详解 1. HDFS基本操作 @ 出现的bug信息 @-@ WARN util.NativeCodeLoader: Unable to ...
- Hadoop学习笔记(2)-HDFS的基本操作(Shell命令)
在这里我给大家继续分享一些关于HDFS分布式文件的经验哈,其中包括一些hdfs的基本的shell命令的操作,再加上hdfs java程序设计.在前面我已经写了关于如何去搭建hadoop这样一个大数据平 ...
- Hadoop学习笔记: HDFS
注:该文内容部分来源于ChinaHadoop.cn上的hadoop视频教程. 一. HDFS概述 HDFS即Hadoop Distributed File System, 源于Google发表于200 ...
- shell脚本编程学习笔记(四)shell操作数据库
一.数据库基本操作 1)登录mysql服务器:mysql -u root -p 密码 2)查看数据库:show databases 3)查看表:show tales from db; 4)查看表结构: ...
- hadoop学习笔记贰 --HDFS及YARN的启动
1.初始化HDFS :hadoop namenode -format 看到如下字样,说明初始化成功. 启动HDFS,start-dfs.sh 终于启动成功了,原来是core-site.xml 中配置 ...
- Hadoop学习笔记三
一.设置HDFS不进行权限检查 默认的HDFS上的文件类似于Linux中的文件,是有权限的.例如test用户创建的文件,root用户如果没有写权限,则不能进行删除. 有2种办法进行修改,修改文件的权限 ...
- MYSQL初级学习笔记三:数据的操作DML!(视频序号:初级_24,25,36)
知识点五:数据的操作DML(24,25,36) 插入数据: --测试插入记录INSERT CREATE TABLE IF NOT EXISTS user13( id TINYINT UNSIGNED ...
- SQL学习笔记三之MySQL表操作
阅读目录 一 存储引擎介绍 二 表介绍 三 创建表 四 查看表结构 五 数据类型 六 表完整性约束 七 修改表ALTER TABLE 八 复制表 九 删除表 一 存储引擎介绍 存储引擎即表类型,mys ...
- Hibernate学习笔记三:常用数据库操作语句
转载请注明原文地址: 一:HQL 1:HQL语句格式:select from POJO类名 where 条件表达式 group by 属性 having 聚集函数 order by 属性 [其中,fr ...
- Hadoop读书笔记(二)HDFS的shell操作
Hadoop读书笔记(一)Hadoop介绍:http://blog.csdn.net/caicongyang/article/details/39898629 1.shell操作 1.1全部的HDFS ...
随机推荐
- 浅析嵌入式C优化技巧
嵌入式C语言优化小技巧 1 概述 嵌入式系统是指完毕一种或几种特定功能的计算机系统,具有自己主动化程度高,响应速度快等长处,眼下已广泛应用于消费电子,工业控制等领域.嵌入式系统受其使用的硬件以及运行环 ...
- Vue 资源
一. 资源教程 综合类 vuejs 英文资料 Vue中文资料总汇 Vue.js 的一些资源索引 vue资料 入门类 vue 快速入门 Vue.js 中文系列视频教程 on Laravist 英文教程 ...
- Markov Decision Processes
为了实现某篇论文中的算法,得先学习下马尔可夫决策过程~ 1. https://leonardoaraujosantos.gitbooks.io/artificial-inteligence/conte ...
- TXT文本写入数据库
load data local infile "D:/abc.txt" into table lee; leedabao.txt内容如下,中间用Tab隔开: 2 yuanpeng ...
- javaweb开发之jsp
一.WEB应用的目录结构 通常我们是在IDE中创建web应用程序,IDE自动为我们实现了WEB的目录结构,下面来看如何徒手创建一个WEB程序. 首先来看一下Tomcat自带的一个web应用的目录结构 ...
- MFC HTTP(S)请求笔记
GET示例 #include <afxinet.h> #include <iostream> #include <vector> #ifdef _UNICODE # ...
- 【React系列】Props 验证
Props 验证使用 propTypes,它可以保证我们的应用组件被正确使用,React.PropTypes 提供很多验证器 (validator) 来验证传入数据是否有效.当向 props 传入无效 ...
- Python序列——Unicode
Unicode是什么 Python中的Unicode 编码与解码 在应用中使用Unicode的建议 1. Unicode是什么 Unicode是对字符进行编码的一种标准.而utf8或者utf-8是根据 ...
- android——实现多语言支持
我们知道,建好一个android 的项目后,默认的res下面 有layout.values.drawable等目录.这些都是程序默认的资源文件目录,如果要实现多语言版本的话,我们就要添加要实现语言的对 ...
- CodeForces - 450B Jzzhu and Sequences —— 斐波那契数、矩阵快速幂
题目链接:https://vjudge.net/problem/CodeForces-450B B. Jzzhu and Sequences time limit per test 1 second ...