hadoop的单机配置

准备工作

利用vim /etc/sysconfig/network命令修改主机名称。

Ssh security shell

远程登录

登录远程服务器

$ ssh user@host

如果本地用户名与远程用户名一致,登录时可以省略用户名。

$ ssh host

提示信息

The authenticity of host 'host (12.18.429.21)' can't be established.

  RSA key fingerprint is 98:2e:d7:e0:de:9f:ac:67:28:c2:42:2d:37:16:58:4d.

Are you sure you want to continue connecting (yes/no)?

说明

这段话的意思是,无法确认host主机的真实性,只知道它的公钥指纹,问你还想继续连接吗?

所谓"公钥指纹",是指公钥长度较长(这里采用RSA算法,长达1024位),很难比对,所以对其进行MD5计算,将它变成一个128位的指纹。上例中是98:2e:d7:e0:de:9f:ac:67:28:c2:42:2d:37:16:58:4d,再进行比较,就容易多了。

很自然的一个问题就是,用户怎么知道远程主机的公钥指纹应该是多少?回答是没有好办法,远程主机必须在自己的网站上贴出公钥指纹,以便用户自行核对。

假定经过风险衡量以后,用户决定接受这个远程主机的公钥。

同意接受远程主机公钥

Are you sure you want to continue connecting (yes/no)? yes

系统提示认可

Warning: Permanently added 'host,12.18.429.21' (RSA) to the list of known hosts.

输入密码

Password: (enter password)

说明

当完成以上几步以后,就可以登录到远程服务器端了。当远程主机的公钥被接受以后,它就会被保存在文件$HOME/.ssh/known_hosts之中。下次再连接这台主机,系统就会认出它的公钥已经保存在本地了,从而跳过警告部分,直接提示输入密码。这样有一个缺点,就是每一次登录的时候都要输入密码,这样的操作是比较繁琐的。

公钥登录

步骤

1、 机器A发送自己的公钥到机器B,这个时候机器B有了机器A的公钥

2、 机器B发送一个随机的字符串向机器A

3、 机器A利用自己的私钥把字符串加密

4、 机器A把加密后的字符串再次发送给机器B

5、 机器B利用公钥解密字符串,如果和原来的一样,则OK。

实现

1、 生成自己的公钥和私钥

$ ssh-keygen

2、 把生成的公钥copy到远程机器上

$ ssh-copy-id user@host

3、 远程主机的authorized_keys文件

在远程主机上生成了一个authorized_keys文件,保存公钥的。

4、当再次访问的时候就不需要输入密码了。

jdk安装

上传jdk

在/home下创建一个文件夹app

jdk解压app下

调用tar –zxvf 文件的目录    的命令把jdk解压缩在app目录下

命令解释:

tar –zxvf  文件的路径

f:指定文件的名称

z:以gz结尾的文件就是用gzip压缩的结果。与gzip相对的就是gunzip,这个参数的作用就是用来调用gzip。

X:为解开的意思

Z:详细报告处理文件的信息

转到jdk的bin目录下,输出java命令

[root@localhost bin]# ./java

Usage: java [-options] class [args...]

(to execute a class)

or  java [-options] -jar jarfile [args...]

(to execute a jar file)

where options include:

-d32          use a 32-bit data model if available

-d64          use a 64-bit data model if available

-server       to select the "server" VM

The default VM is server.

-cp <class search path of directories and zip/jar files>

-classpath <class search path of directories and zip/jar files>

A : separated list of directories, JAR archives,

and ZIP archives to search for class files.

当离开bin这个目录,输出java命令

[root@localhost bin]# cd ..

[root@localhost jdk1.7.0_45]# java

bash: java: command not found

[root@localhost jdk1.7.0_45]#

上述的内容很简单:不识别java这个命令

设置环境变量

export JAVA_HOME=/home/app/jdk1.7.0_45/

export PATH=$PATH:$JAVA_HOME/bin

把这两行配置放入到/etc/profile以后,要做source /etc/profile这样一个命令。

这样就设置了环境变量。

Echo命令

[root@localhost /]# echo $JAVA_HOME

/home/app/jdk1.7.0_45/

可以利用该命令看环境变量。

默认的配置文件

在hadoop-hdfs.jar包中,有一个配置文件

Hadoop-default.xml文件

在hadoop-common.jar包中,有一个配置文件

core-default.xml文件

修改hadoop-env.sh

主要是修改java_home的路径,在hadoop-env.sh的第27行。

把export JAVA_HOME=${JAVA_HOME}修改成具体的路径

[root@localhost hadoop]# vim hadoop-env.sh

export JAVA_HOME=${JAVA_HOME}àexport JAVA_HOME=/home/app/jdk1.7.0_45/

[root@localhost hadoop]# source hadoop-env.sh

如果比较难找,利用: set nu命令可以显示行数

修改core-site.xml

[root@localhost hadoop]# vim core-site.xml

原来的内容:

<configuration>

</configuration>

现在的内容:

<configuration>

<property>

<name>fs.defaultFS</name>  namenode的名字

<value>hdfs://zd01:9000</value>  namenode的地址

</property>

<property>

<name>hadoop.tmp.dir</name>  文件存储的名称

<value>/home/app/hadoop-2.6.0/tmp</value>   文件存储的地址

</property>

文件存储路径

data节点的路径

name节点的路径

修改hdfs-site.xml

原来的内容

<configuration>

</configuration>

现在的内容:

<configuration>

<property>

<name>dfs.replication</name>  //指的是hdfs的副本的数量,包括自己。

<value>3</value>

</property>

</configuration>

修改mapred-site.xml

说明:在/etc/hadoop的目录下,只有一个mapred-site.xml.template文件,所以必须改名

[root@localhost hadoop]# mv mapred-site.xml.template mapred-site.xml

在mapred-site.xml文件中

原来的文件

<configuration>

</configuration>

现在的文件

<configuration>

<property>  //指明mapreduce运行在yarn上

<name>mapreduce.framework.name</name>

<value>yarn</value>

</property>

</configuration>

修改yarn-site.xml

原来的值:

<configuration>

<!-- Site specific YARN configuration properties -->

</configuration>

现在的值:

<configuration>

<property>

//指定resourcemanager的地址

<name>yarn.resourcemanager.hostname</name>

<value>zd01</value>

</property>

<property>

//reduce获取数据的方式

<name>yarn.nodemanager.aux-services</name>

<value>mapreduce_shuffle</value>

</property>

</configuration>

修改slaves

存放的是datanode节点的名称

配置hadoop的环境变量

export HADOOP_HOME=/home/app/hadoop-2.6.0/

export PATH=$PATH:$HADOOP_HOME/sbin:$HADOOP_HOME/bin:$ANT_HOME/bin

格式化namenode

操作

hdfs namenode –format(Hadoop namenode –format  以前的方式)

在格式化的时候,会有这样的输出:

Storage directory /tmp/hadoop-root/dfs/name has been successfully formatted

作用

1、 清空namenode目录下的所有的文件,上图中的tmp/dfs/name下的所有的内容就是要清空的内容

2、 创建一些文件,例如:fsimage,edits文件

启动hadoop

在/home/app/hadoop-2.6.0/sbin目录下

[root@localhost sbin]# start-all.sh

hadoop的单机配置的更多相关文章

  1. Hadoop - 操作练习之单机配置 - Hadoop2.8.0/Ubuntu16.04

    系统版本 anliven@Ubuntu1604:~$ uname -a Linux Ubuntu1604 4.8.0-36-generic #36~16.04.1-Ubuntu SMP Sun Feb ...

  2. Data - Hadoop单机配置 - 使用Hadoop2.8.0和Ubuntu16.04

    系统版本 anliven@Ubuntu1604:~$ uname -a Linux Ubuntu1604 4.8.0-36-generic #36~16.04.1-Ubuntu SMP Sun Feb ...

  3. hadoop单机配置

    条件: 先下载VMware1.2,然后安装. 下载ubuntu-1.4.05-desktop-amd64.iso.下载地址:http://mirrors.aliyun.com/ubuntu-relea ...

  4. ubuntu 单机配置hadoop

    前言 因为是课程要求,所以在自己电脑上安装了hadoop,由于没有使用虚拟机,所以使用单机模拟hadoop的使用,可以上传文件,下载文件. 1.安装配置JDK Ubuntu18.04是自带Java1. ...

  5. Hadoop安装-单机-伪分布式简单部署配置

    最近在搞大数据项目支持所以有时间写下hadoop随笔吧. 环境介绍: Linux: centos7 jdk:java version "1.8.0_181 hadoop:hadoop-3.2 ...

  6. [Hadoop入门] - 2 ubuntu安装与配置 hadoop安装与配置

    ubuntu安装(这里我就不一一捉图了,只引用一个网址, 相信大家能力) ubuntu安装参考教程:  http://jingyan.baidu.com/article/14bd256e0ca52eb ...

  7. hadoop安装和配置

    这里只是涉及了hadoop的一些思路,所以完全分布式配置文件并没有哦!以后会把详细的配置过程和使用环境补充在另外一篇博客中 hadoop的安装: --------------------------- ...

  8. 五十九.大数据、Hadoop 、 Hadoop安装与配置 、 HDFS

    1.安装Hadoop 单机模式安装Hadoop 安装JAVA环境 设置环境变量,启动运行   1.1 环境准备   1)配置主机名为nn01,ip为192.168.1.21,配置yum源(系统源) 备 ...

  9. hadoop 文件参数配置

    准备环境(省略) 上传实验所需的压缩包 配置网络信息 修改主机名 配置域名解析 关闭防火墙与SELinux(在所有节点上执行)代码如下: systemctl disable --now firewal ...

随机推荐

  1. Maven - Maven Project与Maven Module区别和联系

    版权声明:本文为博主原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明.本文链接:https://blog.csdn.net/J080624/article/detai ...

  2. Codevs 1200 同余方程 2012年NOIP全国联赛提高组

    1200 同余方程 2012年NOIP全国联赛提高组 时间限制: 1 s 空间限制: 128000 KB 题目等级 : 钻石 Diamond 题目描述 Description 求关于 x 同余方程 a ...

  3. Spring Boot教程(三十三)使用Redis数据库(1)

    Spring Boot中除了对常用的关系型数据库提供了优秀的自动化支持之外,对于很多NoSQL数据库一样提供了自动化配置的支持,包括:Redis, MongoDB, Elasticsearch, So ...

  4. template模板循环嵌套循环

    template嵌套循环写法:在第一次循环里面需要循环的地方再写个循环,把要循环的数据对象改为第一层的循环对象别名 //template模板循环嵌套循环 <script id="ban ...

  5. Word文档怎么从第二页加页码

    1.首先将光标放到首页的最后位置 2.“页面布局”—“分隔符”—“下一页” 3.“插入”—“页码”—选一种样式的页码 4.将光标定位到第二页的页脚处,“设计”—取消“链接到前一条页眉” 5.将第二页的 ...

  6. linux中 ls |wc -l

      linux中 ls |wc -l_百度知道 答 205行,205个字,1920个字节,wc -l只输出文件行数

  7. python:科学计数法转化为浮点型数据

    def as_num(x): y='{:.5f}'.format(x) # 5f表示保留5位小数点的float型 return(y) 实验一下 as_num(1.2e-4) In [3]:as_num ...

  8. Less相关的用法以及Vue2.0 中如何使用Less

    (一)less的用法: (二)vue 2.0中如何使用less插件 1:vue先安装less插件 npm install less less-loader --save 2:修改webpack.bas ...

  9. linux升级安装openssh时出现依赖冲突

    通过如下方式下载到openssh安装包 https://www.cnblogs.com/qq931399960/p/11120429.html -rwxrwxrwx. root root Jul : ...

  10. RF框架自定义测试库开发

    静态库 方法(methods)直接映射为关键字名称.关键字接受和方法相同的参数, 通过抛异常来 报告错误, 通过往标准输出里写入来写 log, 同时可以通过return 来返回结果. 创建步骤: ▲ ...