在这里我给大家继续分享一些关于HDFS分布式文件的经验哈,其中包括一些hdfs的基本的shell命令的操作,再加上hdfs java程序设计。在前面我已经写了关于如何去搭建hadoop这样一个大数据平台,还没搭好环境的童鞋可以转到我写的这篇文章Hadoop在Ubuntu的安装,接下来就开始我们本次的经验分享啦。

HDFS的Shell命令操作

HDFS的格式化与启动

首次使用HDFS时,需要使用format 命令进行格式化

./bin/hdfs namenode -format

使用start-dfs.sh命令启动HDFS,可 使用JPS命令查看是否成功启动

./sbin/start-dfs.sh

下面的图片是启动失败的截图,那么怎么解决这个问题呢。

HDFS启动失败

首先需要停止hdfs,这也是操作完hdfs的必要步骤。

./sbin/stop-dfs.sh

删除tmp/dfs目录下的data文件夹

rm -r ./tmp/dfs/data

最后重新执行HDFS的格式化与启动操作。

启动成功包括出现NameNode、SecondDaryNameNode、以及DataNode。

HDFS支持的命令

查看hdfs支持的所有命令

./bin/hdfs dfs

Ps:查看hadoop下put的使用方法

./bin/hadoop fs -help put

HDFS文件系统中目录创建操作

创建用户目录

Hadoop系统安装好以后,第一次使用HDFS时,需要首先在HDFS中创建用户目录。

./bin/hdfs dfs -mkdir -p /user/hadoop

用查询命令查看我们在路径user下面创建的文件夹hadoop

./bin/hdfs dfs -ls /user

创建二级目录

在hadoop目录下再创建一个input文件夹

./bin/hdfs dfs -mkdir /user/hadoop/input

根目录下创建目录

在hadoop根目录下创建一个input文件夹

./bin/hdfs dfs -mkdir /input

HDFS文件系统中目录删除操作

删除在hadoop根目录下面创建的input文件夹

./bin/hdfs dfs -rm -r /input

可以看到,hadoop根目录下的input文件夹已经被我们成功删除,现在只有存在user目录。

Hadoop的文件操作

创建文件的方式

在当前环境目录下创建hello.txt文件,这里介绍两种方法。

number one

touch hello.txt

打开hello.txt文件,并写入如下内容并保存。

hello world

gedit hello.txt

number t two

利用vim编辑创建hello.txt。

vim hello.txt

关于vim怎么建立简单的文本文件我就不在这里解释了,不会的童鞋可以找找度娘。

传输文件

利用put命令将创建的hello.txt文件上传到user/hadoop/input的目录

./bin/hdfs dfs -put ./hello.txt  /user/hadoop/input
/bin/hdfs dfs -ls /user/hadoop/input

在user/hadoop/input目录下利用cat命令查看hello.txt文件内容

./bin/hdfs dfs  -cat /user/hadoop/input/hello.txt

HDFS中的文件下载到本地文件系统

使用-get命令将HDFS中的hello.txt文件下载到本地文件系统中的/home/hadoop/Desktop这个目录下:

./bin/hdfs dfs -get /user/hadoop/input/hello.txt /home/hadoop/Desktop



本次给大家分享的内容就到这里啦,觉得还不错的点个赞支持一下小编,你的肯定就是小编前进的动力。另外如果想了解更多计算机专业的知识和技巧的,献上我的个人博客北徯,另外需要各种资料的童鞋,可以关注我的微信公众号北徯,免费的PPT模板,各种资料等你来领。

Hadoop学习笔记(2)-HDFS的基本操作(Shell命令)的更多相关文章

  1. 吴裕雄--天生自然HADOOP操作实验学习笔记:hdfs简单的shell命令

    实验目的 了解bin/hadoop脚本的原理 学会使用fs shell脚本进行基本操作 学习使用hadoop shell进行简单的统计计算 实验原理 1.hadoop的shell脚本 当hadoop集 ...

  2. Hadoop学习笔记: HDFS

    注:该文内容部分来源于ChinaHadoop.cn上的hadoop视频教程. 一. HDFS概述 HDFS即Hadoop Distributed File System, 源于Google发表于200 ...

  3. Hadoop学习笔记(三) ——HDFS

    参考书籍:<Hadoop实战>第二版 第9章:HDFS详解 1. HDFS基本操作 @ 出现的bug信息 @-@ WARN util.NativeCodeLoader: Unable to ...

  4. hadoop学习笔记贰 --HDFS及YARN的启动

    1.初始化HDFS :hadoop namenode -format 看到如下字样,说明初始化成功. 启动HDFS,start-dfs.sh 终于启动成功了,原来是core-site.xml  中配置 ...

  5. Hadoop学习笔记之HBase Shell语法练习

    Hadoop学习笔记之HBase Shell语法练习 作者:hugengyong 下面我们看看HBase Shell的一些基本操作命令,我列出了几个常用的HBase Shell命令,如下: 名称 命令 ...

  6. hadoop学习笔记(四):HDFS文件权限,安全模式,以及整体注意点总结

    本文原创,转载注明作者和原文链接! 一:总结注意点: 到现在为止学习到的角色:三个NameNode.SecondaryNameNode.DataNode 1.存储的是每一个文件分割存储之后的元数据信息 ...

  7. Hadoop学习笔记(两)设置单节点集群

    本文描写叙述怎样设置一个单一节点的 Hadoop 安装.以便您能够高速运行简单的操作,使用 Hadoop MapReduce 和 Hadoop 分布式文件系统 (HDFS). 參考官方文档:Hadoo ...

  8. Hadoop学习笔记—22.Hadoop2.x环境搭建与配置

    自从2015年花了2个多月时间把Hadoop1.x的学习教程学习了一遍,对Hadoop这个神奇的小象有了一个初步的了解,还对每次学习的内容进行了总结,也形成了我的一个博文系列<Hadoop学习笔 ...

  9. Hadoop学习笔记(2)

    Hadoop学习笔记(2) ——解读Hello World 上一章中,我们把hadoop下载.安装.运行起来,最后还执行了一个Hello world程序,看到了结果.现在我们就来解读一下这个Hello ...

随机推荐

  1. 改变Dataframe的列的数据类型

    1.查看DataFrame的数据类型 df.dtypes#查看各列数据类型 df[A].dtypes#查看A列数据类型 2.转换DataFrame的数据类型 df[A].astypes(int)#将A ...

  2. Tensorflow 介绍和安装

    欢迎大家关注我们的网站和系列教程:http://www.tensorflownews.com/,学习更多的机器学习.深度学习的知识! 作者:AI小昕 本系列教程将手把手带您从零开始学习Tensorfl ...

  3. RMQ(倍增法求ST)

    解决什么问题:区间查询最值 倍增思想:每次得出结果的范围呈2的幂次增长,有人说相当于二分,目前我觉得相当于线段树的查找. 具体理解看代码: /*倍增法求ST*/ #include<math.h& ...

  4. Python第七章-面向对象高级

    面向对象高级 一. 特性 特性是指的property. property这个词的翻译一直都有问题, 很多人把它翻译为属性, 其实是不恰当和不准确的. 在这里翻译成特性是为了和属性区别开来. 属性是指的 ...

  5. 一文读懂什么是CA证书

    Normal 0 7.8 磅 0 2 false false false EN-US ZH-CN X-NONE /* Style Definitions */ table.MsoNormalTable ...

  6. 【webpack 系列】进阶篇

    本文将继续引入更多的 webpack 配置,建议先阅读[webpack 系列]基础篇的内容.如果发现文中有任何错误,请在评论区指正.本文所有代码都可在 github 找到. 打包多页应用 之前我们配置 ...

  7. Django之auth用户认证

    auth模块 from django.contrib import auth django.contrib.auth中提供了许多方法,这里主要介绍其中的三个: authenticate()    提供 ...

  8. A - Investment

    A - Investment John never knew he had a grand-uncle, until he received the notary's letter. He learn ...

  9. CCF题库刷题编译错误

    最近在CCF上刷题,因为C语言更合适,就使用了devc编译器,选择C语言但是却报编译错误 后来查了一下,发现在提交时选择C++语言就能满分通过,问题得以解决.

  10. reuire代码优化之:r.js

    r.js是requireJS的优化(Optimizer)工具,可以实现前端文件的压缩与合并,在requireJS异步按需加载的基础上进一步提供前端优化,减小前端文件大小.减少对服务器的文件请求.要使用 ...