【实验目的】
    1)熟练hdfs shell命令操作
    2)理解hdfs shell和linux shell命令
【实验原理】
    安装好hadoop环境之后,可以执行hdfs shell命令对hdfs 的空间进行操作。我们通过命令行和HDFS打交道,进一步增加对HDFS的认识,HDFS命令行接口是一种最直接,也比较简单的一种方式。
    调用文件系统(FS)Shell命令应使用bin/hadoop fs 的形式。也可以使用其他形式:
    hadoop dfs {args}
    hdfs dfs {args}
    所有的FS shell命令使用URI路径作为参数。URI格式是scheme://authority/path。HDFS的scheme是hdfs,对本地文件系统,scheme是file。其中scheme和authority参数都是可选的,如果未加指定,就会使用配置中指定的默认scheme。
【实验环境】
    本次环境是:centos6.5 + jdk1.7.0_79 + hadoop2.4.1
    工具包在/simple/soft目录下
【实验步骤】
    一、hdfs shell命令
        1.1 在任意目录下(需要配置hadoop环境变量),执行命令:start-dfs.sh启动hdfs服务。如图1所示

图1

1.2 启动hdfs之后,通过jps查看hdfs服务是否启动,执行命令:jps 。如图2所示

图2

1.3 在任意目录下执行如下命令(配置hadoop环境变量):hdfs dfs -help,查看到所有hdfs shell命令解释。如图3所示

图3

1.4 appendToFile的使用:假如hdfs上已经存在一个文件words.txt,具有一些信息,假如不存在words.txt,先在本地通过touch /simple/words.txt在simple下创建words.txt文件,并通过cd /simple 命令进入simple目录下执行vim words.txt命令进行编译,编译完成通过esc退出编辑状态,再:wq保存退出。然后通过hdfs dfs -put /simple/words.txt /上传到hdfs根目录并通过cat命令进行查看,如图4:

图4

在本地simple文件夹中建立words.txt,把指定的本地文件中(/simple/words.txt)的内容追加到到hdfs系统的words.txt文件。执行命令:`hdfs dfs -appendToFile /simple/words.txt  /words.txt `。从下面的命令可以看出,hdfs中的文件words.txt中的内容多一部分。如图5所示

图5

1.5 rmr循环删除hdfs系统中的目录。执行命令:hdfs dfs -rmr /words.txt 可以把hdfs根目录下的words.txt文件删除。如图6所示

图6

1.6 touchz的使用:在hdfs系统指定的目录下创建一个文件。执行命令:hdfs dfs -touchz /newword.txt。如图7所示

图7

1.7 mkdir的使用:在hdfs系统的指定位置创建一个目录,执行命令:hdfs dfs -mkdir -p /aa/bb。如图8所示

图8

1.8 moveFromLocal的使用:把指定的本地的文件移到hdfs系统指定的位置,执行命令:hdfs dfs -moveFromLocal /simple/words.txt /aa 。如图9所示

图9

1.9 chgrp的使用:修改hdfs系统中指定文件或文件夹的用户所属组 ,执行命令:hdfs dfs -chgrp -R root /。如图10所示

图10

1.10 chmod的使用:改变指定目录文件的权限,如果指定R表示递归进行改变所有文件目录和文件的权限.用户必须是文件所有者或超级用户,执行命令:hdfs dfs -chmod -R 777 /。如图11所示

图11

1.11  chown的使用:改变文件的所有者,用户必须是超级用户,执行命令:hdfs dfs -chown -R root:supergroup /。如图12所示

图12

 

Linux实验:hdfs shell基本命令操作(二)的更多相关文章

  1. Linux实验:hdfs shell基本命令操作(一)

    [实验目的] 1)熟练hdfs shell命令操作 2)理解hdfs shell和linux shell命令 [实验原理] 安装好hadoop环境之后,可以执行hdfs shell命令对hdfs 的空 ...

  2. Spark环境搭建(二)-----------HDFS shell 常用操作

    配置好HDFS,也学习了点HDFS的简单操作,跟Linux命令相似 1)  配置Hadoop的环境变量,类似Java的配置 在 ~/.bash_profile 中加入 export HADOOP_HO ...

  3. 云计算与大数据实验:Hbase shell基本命令操作

    [实验目的] 1)了解hbase服务 2)学会启动和停止服务 3)学会进入hbase shell环境 [实验原理] HBase是一个分布式的.面向列的开源数据库,它利用Hadoop HDFS作为其文件 ...

  4. HDFS Shell命令操作与java代码操作

    (一)编程实现以下功能,并利用 Hadoop 提供的 Shell 命令完成相同任务: (1)     向 HDFS 中上传任意文本文件,如果指定的文件在 HDFS 中已经存在,则由用户来指定是追加到原 ...

  5. Linux下的shell编程(二)BY 四喜三顺

    Ctrl + Alt + T 打开终端, $代表普通用户,#代表超级用户(root user)如:    xiangqi@xiangqi ~$           root@xiangqi ~# ec ...

  6. H3CNE实验:Comware基本命令操作

    第1步:Comware命令视图及切换操作 <H3C>system-view System View: return to User View with Ctrl+Z. [H3C]quit ...

  7. Linux/Unix下Shell快捷键操作集合

    本人收集整理了一些Bash或其他Shell中常用的快捷键,使用技巧以及Ubuntu中一些常用操作的快捷键,希望大家能从中受益,提高工作效率. 使用”!”从历史中执行命令 有时候,我们需要在 Bash ...

  8. 记录linux系统用户shell终端操作记录

    在 /etc/profile 最后添加 export HISTTIMEFORMAT='[%F %T]: ' export PROMPT_COMMAND='{ msg=$(history 1 | { r ...

  9. linux云计算集群架构学习笔记:rhel7基本命令操作

     1-3-RHEL7基本命令操作 1.1Linux终端介绍 Shell提示符 Bash Shell基本语法. 1.2基本命令的使用:ls.pwd.cd. 1.3查看系统和BIOS硬件时间. 1.4 L ...

随机推荐

  1. Docker网络模式介绍

    一.概述 docker的网络驱动有很多种方式,按照docker官网给出的网络解决方案就有6种,分别是:bridge.host.overlay.macvlan.none.Network plugins, ...

  2. linux下 tab键失效 -bash: !ref: 为绑定变量

    报错现象: Linux环境下,按Tab键进行补全时出现上图情况. [root@worker2 cjj]# vim /et-bash: !ref: 为绑定变量 -bash: !ref: 为绑定变量 -b ...

  3. Spark Streaming反压机制

    反压(Back Pressure)机制主要用来解决流处理系统中,处理速度比摄入速度慢的情况.是控制流处理中批次流量过载的有效手段. 1 反压机制原理 Spark Streaming中的反压机制是Spa ...

  4. Toping Kagglers:Bestfitting,目前世界排名第一

    Toping Kagglers:Bestfitting,目前世界排名第一 Kaggle团队 |2018年5月7日   我们在排行榜上排名第一 - 这是两年前令人惊讶地加入该平台的竞争对手.Shubin ...

  5. activiti学习5:开启流程和流程前进

    目录 activiti学习5:开启流程和流程前进 一.流程和任务的关系 二.开启流程 2.1根据流程定义key开启流程 三.查询用户任务 3.1 TaskQuery 四.完成任务 activiti学习 ...

  6. jdbc(mysql)数据库连接

    0.将驱动引入项目 在项目根目录新建文件夹lib,把数据库驱动mysql-connector-java-5.1.7-bin.jar放入该文件夹. 右键点击项目名称->properties-> ...

  7. XML中的XPATH和DTD

    大家好,乐字节小乐又来了,上次给大家说道的是XML解析,这次接着讲述XML文档中的语言:XPATH.DTD 一.先来说说XPATH 1.XPATH 概念 XPath 是一门在 XML 文档中查找信息的 ...

  8. Spark学习(2) RDD编程

    什么是RDD RDD(Resilient Distributed Dataset)叫做分布式数据集,是Spark中最基本的数据抽象,它代表一个不可变.可分区.弹性.里面的元素可并行计算的集合 RDD允 ...

  9. PAT(B) 1030 完美数列 - C语言 - 滑动窗口 & 双指针

    题目链接:1030 完美数列 (25 point(s)) 给定一个正整数数列,和正整数 \(p\),设这个数列中的最大值是 \(M\),最小值是 \(m\),如果 \(M≤mp\),则称这个数列是完美 ...

  10. ArcGIS Engine开发鹰眼图的功能(基础篇)

    鹰眼是用于调节全视域范围内主地图显示范围情况的副地图.它体现了地图整体与详细局部的关系. 用户可以通过鼠标单击或者画框等动作实现鹰眼与主地图的交互情况. 鹰眼功能的原理是通过主地图窗口的地图控件和鹰眼 ...