安装 JDK

HDFS 依赖 Java 环境,这里我们使用 yum 安装 JDK 8,在终端中键入如下命令:
yum -y install java-1.8.0-openjdk*
使用如下命令查看下 Java 版本,我们可以验证 JDK 是否已成功安装:
java -version

配置 Java 环境变量
在编辑器中打开文件 /etc/profile,在文件末尾追加如下内容,配置 Java 环境变量:
export JAVA_HOME=/usr/lib/jvm/jre-1.8.0-openjdk
export PATH=$PATH:$JAVA_HOME/bin
export CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar

然后执行如下命令,让环境变量生效:
source /etc/profile

通过如下命令,验证 Java 环境变量是否已成功配置并且生效:
echo $JAVA_HOME

准备 HDFS 环境

  • 配置 SSH
    先后执行如下两行命令,配置 SSH 以无密码模式登陆:
ssh-keygen -t dsa -P '' -f ~/.ssh/id_dsa
cat ~/.ssh/id_dsa.pub >> ~/.ssh/authorized_keys 接着可以验证下,在不输入密码的情况下,应该能使用 ssh 命令成功连接本机: ssh 119.29.174.175
紧接着在终端中键入如下命令关闭 ssh 连接:
exit
SSH 配置完毕后,我们接着下载并安装 Hadoop。 安装 Hadoop
首先创建 /data/hadoop 目录,然后进入该目录:
mkdir -p /data/hadoop && cd $_

接着下载 Hadoop 安装包到该目录下:
wget http://archive.apache.org/dist/hadoop/core/hadoop-2.7.1/hadoop-2.7.1.tar.gz 解压下载好的 Hadoop 安装包到当前目录:
tar -zxvf hadoop-2.7.1.tar.gz
然后将解压后的目录重命名为 hadoop,并且将其移至 /usr/local/ 目录下:
mv hadoop-2.7.1 hadoop && mv $_ /usr/local/ 在编辑器中打开 Hadoop 环境配置文件,使用 Ctrl + F 搜索如下行 
export JAVA_HOME=${JAVA_HOME}
将其替换为:
export JAVA_HOME=/usr/lib/jvm/jre-1.8.0-openjdk

查看下 Hadoop 的版本:
/usr/local/hadoop/bin/hadoop version
可以看到 Hadoop 的版本信息:
Hadoop 2.7.1
安装 Hadoop 就是这么简单。至此 Hadoop 已经安装完成,紧接着我们需要做的就是修改 Hadoop 的配置信息。 修改 Hadoop 配置
由于我们的实践环境是在单机下进行的,所以此处把 Hadoop 配置为伪分布式模式。
首先新建若干临时文件夹,我们在后续的配置中以及 HDFS 和 Hadoop 的启动过程中会使用到这些文件夹:
cd /usr/local/hadoop && mkdir -p tmp dfs/name dfs/data
修改 HDFS 配置文件 core-site.xml,将 configuration 配置修改为如下内容:
core-site.xml
<configuration>
<property>
<name>hadoop.tmp.dir</name>
<value>/usr/local/hadoop/tmp</value>
</property>
<property>
<name>fs.defaultFS</name>
<value>hdfs://localhost:9000</value>
</property>
</configuration>

 修改 HDFS 配置文件 hdfs-site.xml,将 configuration 配置修改为如下内容:

 hdfs-site.xml

<configuration>
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
<property>
<name>dfs.namenode.name.dir</name>
<value>file:/usr/local/hadoop/dfs/name</value>
</property>
<property>
<name>dfs.datanode.data.dir</name>
<value>file:/usr/local/hadoop/dfs/data</value>
</property>
<property>
<name>dfs.permissions</name>
<value>false</value>
</property>
</configuration>

  修改 HDFS 配置文件 yarn-site.xml,将 configuration 配置修改为如下内容:

yam-site.xml

<configuration>
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property> <property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
</configuration>

  以上配置修改完毕后,我们可以尝试启动 Hadoop。

启动 Hadoop
首先进入如下目录:
cd /usr/local/hadoop/bin/
对 HDFS 文件系统进行格式化:
./hdfs namenode -format
接着进入如下目录:
cd /usr/local/hadoop/sbin/
先后执行如下两个脚本启动 Hadoop:
./start-dfs.sh
./start-yarn.sh
接着执行如下命令,验证 Hadoop 是否启动成功:
jps
如果输出了类似如下的指令,则说明 Hadoop 启动成功啦 

21713 Jps
21089 SecondaryNameNode
21364 NodeManager
20795 NameNode
20923 DataNode
21245 ResourceManager

至此,我们的 HDFS 环境就已经搭建好了。在浏览器中访问如下链接,应该能正常访问(注:若出现安全拦截请选择通过):

http://119.29.174.175:50070/explorer.html#/

接下来,我们实践下如何将碎片文件存储到 HDFS 中。

存储碎片文件

  • 准备碎片文件
    首先创建目录用于存放碎片文件,进入该目录:
    mkdir -p /data/file && cd /data/file
     
    然后执行如下 shell 命令,新建一批碎片文件到该目录下

     i=1; while [ $i -le 99 ]; do name=`printf "test%02d.txt"  $i`; touch "$name"; i=$(($i+1)); done

在终端中执行 ls 命令,可以看到我们已成功创建了一批碎片文件。

将碎片文件存储在 HDFS 中

首先在 HDFS 上新建目录:

/usr/local/hadoop/bin/hadoop fs -mkdir /dest

此时,在浏览器是访问如下链接,可以看到 /dest 目录已创建,但是暂时还没有内容:

http://119.29.174.175:50070/explorer.html#/dest

接着我们可以上传碎片文件啦!
首先在终端中依次执行以下命令

 groupadd supergroup
usermod -a -G supergroup root
然后将之前创建的碎片文件上传到 HDFS 中:

cd /data/file && /usr/local/hadoop/bin/hadoop fs -put *.txt /dest

这时,再使用如下命令,我们应该能看到碎片文件已成功上传到 HDFS 中:

/usr/local/hadoop/bin/hadoop fs -ls /dest

部署完成

  • 访问服务
    在浏览器是访问如下链接,可以看到 /dest 目录的文件内容:

http://119.29.174.175:50070/explorer.html#/dest

搭建基于 HDFS 碎片文件存储服务的更多相关文章

  1. SpringBoot 搭建基于 MinIO 的高性能存储服务

    1.什么是MinIO MinIO是根据GNU Affero通用公共许可证v3.0发布的高性能对象存储.它与Amazon S3云存储服务兼容.使用MinIO构建用于机器学习,分析和应用程序数据工作负载的 ...

  2. 第2-3-1章 文件存储服务系统-nginx/fastDFS/minio/阿里云oss/七牛云oss

    目录 文件存储服务 1. 需求背景 2. 核心功能 3. 存储策略 3.1 本地存储 3.2 FastDFS存储 3.3 云存储 3.4 minio 4. 技术设计 文件存储服务 全套代码及资料全部完 ...

  3. nodejs实现一个文件存储服务

    nodejs实现一个文件存储服务 模拟文件上传下载功能: PUT 上传一个文件,URL表示在服务器上待上传文件的路径. GET 下载一个文件,URL表示在服务器上待下载文件的路径.

  4. 基于php的AWS存储服务

    近几天用到了aws的s3存储服务,公司内部的完全兼容aws并对其进行了封装,之前也用过,现在把经验总结一下. 既然要用,首先需要安装sdk,下边提供了几种安装方法 方法一:使用composer安装 1 ...

  5. 第2-1-5章 docker安装MinIO实现文件存储服务-springboot整合minio-minio全网最全的资料

    目录 1. MinIO介绍 2. MinIO应用场景 2.1 单主机单硬盘模式 2.2 单主机多硬盘模式 2.3 多主机多硬盘分布式 3. MinIO特点 4. 存储机制 5. docker安装Min ...

  6. 4.1-4.2 基于HDFS云盘存储系统分析及hadoop发行版本

    一.基于HDFS云盘存储系统 如:某度网盘 优点: *普通的商用机器 内存 磁盘 *数据的安全性 操作: *put   get *rm  mv *java api *filesystem 核心: *H ...

  7. 搭建基于.NetFrameWork的私有nuget服务端及打包项目发布上传

    一.私有Nuget服务端搭建 1.创建一个.NetFramework web项目 2.在nuget管理中 安装 nuget.server包 3.安装完成后修改web.config里面的 apikey ...

  8. 第2-1-3章 docker-compose安装FastDFS,实现文件存储服务

    目录 4 docker-compose安装FastDFS 4.1 docker-compose-fastdfs.yml 4.2 nginx.conf 4.3 storage.conf 4.4 测试 4 ...

  9. centos7搭建基于SAMBA的网络存储

    学习目标: 通过本实验理解Linux系统下SAMBA服务器和客户端的配置,实现客户机可自动挂载服务端的共享存储. 操作步骤: 1.  SAMBA服务器搭建 2.  SAMBA客户端配置 参考命令:   ...

随机推荐

  1. iptables允许一个ip访问本机的某个端口

    需求是redis允许特定客服端连接: -A INPUT -s .xx.xx.xxx/ -p tcp --dport -j ACCEPT

  2. Oracle PLSQL Demo - 27.Declare & Run Sample

    declare v_sal ) :; begin --if you could not see the output in console, you should set output on firs ...

  3. MySQL修改root密码的多种方法(转)

    http://jingyan.baidu.com/article/0320e2c198ad5f1b87507bc8.html ********************************* 方法1 ...

  4. 常见电源品牌大揭密(转贴自pceva,作者royalk)

    常见电源品牌大揭密(转贴自pceva,作者royalk) 介绍电源品牌代工厂之前,必须介绍一下电源分类: 标准电源 标准电源就是电脑城装机用得最多的电源,性能正常,外观一般,原生接线,也没有什么风扇停 ...

  5. 【Java】创建线程对象两种方式

    1.继承Thread类,重载run方法: Thread t = new Thread(new Runnable() { @Override public void run() { // TODO Au ...

  6. TOMCAT8源码分析——SESSION管理分析(上)

    前言 对于广大java开发者而已,对于J2EE规范中的Session应该并不陌生,我们可以使用Session管理用户的会话信息,最常见的就是拿Session用来存放用户登录.身份.权限及状态等信息.对 ...

  7. Hadoop的体系结构之MapReduce的体系结构

    MapReduce的体系结构 Hadoop MapReduce是一个使用简易的软件框架,基于它写出来的应用程序能够运行在上千个商用机器组成的大型集群上,并以一种可靠容错的方式并行处理上TB的数据集. ...

  8. oracle DataGuard 主从 踩过坑的

    一.主机描述 dbprimary: 192.168.1.57 主机名称db1    dbstandby: 192.168.1.58 主机名成db2    SID: orcl 二.配置tns,配置好的文 ...

  9. Linq中的ToList()和CopyToDataTable()

    最近在项目中使用了Linq,想把Linq的查询结果直接转换成DataTable对象,通过查找发现Linq有一个CopyToDataTable<T>的泛型方法,该方法只能在T是DataRow ...

  10. CodeIgniter(3.1.4)框架中设置默认控制器

    创建的目录结构: 如果是以上这种目录分布结构,则在controller文件夹下没有相应的控制器文件.如果在浏览器中直接使用 [http://localhost]则找不到相应的控制器. 必须进行以下设置 ...