Linux环境Hadoop安装配置
Linux环境Hadoop安装配置
转载地址:YBCarry
Linux下,配置Hadoop的相关配置文件:

1. 准备工作
(1)linux配置IP(NAT模式)
- 相关信息必须与VMnet8保持一致
- 通过命令:vi /etc/sysconfig/network-scripts/ifcfg-(自己的名字) 进行编辑
TYPE=Ethernet
BOOTPROTO=none
DEFROUTE=yes
IPV4_FAILURE_FATAL=no
IPV6INIT=yes
IPV6_AUTOCONF=yes
IPV6_DEFROUTE=yes
IPV6_FAILURE_FATAL=no
IPV6_ADDR_GEN_MODE=stable-privacy
NAME=ens33
UUID=9cbcf25a-600d-4d9c-88ad-ab509ab6e52a
DEVICE=ens33
ONBOOT=yes
IPADDR=192.168.44.121
PREFIX=24
GATEWAY=192.168.44.2
DNS1=8.8.8.8
IPV6_PEERDNS=yes
IPV6_PEERROUTES=yes
IPV6_PRIVACY=no
- 重启网络服务:service network restart
(2)linux关闭防火墙
- 查看防火墙状态:firewall-cmd --state ->running
- 关闭防火墙-本次有效:systemctl stop firewalld.service
- 禁用防火墙-永久生效:systemctl disable firewalld.service ->not running
(3)设置主机名
- 位置:vi /etc/hostname,输入主机名
- **注意:**需要重启:reboot
(4)设置映射
- 位置:vi /etc/hosts,输入集群全部IP和主机名
- 格式:192.168.44.111 bigdata111
(5)设置免密登录
- 生成密钥:ssh-keygen (三次回车键)
- 拷贝到主机:ssh-copy-id 主机名 (所有节点都拷贝)
2. 安装jdk
(1)上传安装包:
CRT:alt+p
winscp:拖入目录
(2)解压:
tar -zxvf jdkXXXXX.tar.gz -C 目标目录
(3)配置环境变量:
命令:
export JAVA_HOME=jdk目标目录
export PATH=JAVA_HOME/bin
**注意:**需要使环境变量生效:source /etc/profile
3. 分发jdk到其他节点
(1)发送文件:
scp jdk 目标主机名:目标目录
scp /etc/profile 目标主机名:目标目录
source /etc/profile
(2)验证:
javac java java -version
4. 安装hadoop
(1)上传安装包:
CRT:alt+p
winscp:拖入目录
(2)解压:
tar -zxvf HadoopXXXXX.tar.gz -C 目标目录
(3)配置环境变量:
命令:
vi /etc/profile
export HADOOP_HOME=HADOOP目标目录
export PATH=HADOOP_HOME/bin:$HADOOP_HOME/sbin
**注意:**需要使环境变量生效:source /etc/profile
(4)修改配置文件:
hadoop-env.sh
export JAVA_HOME=Java路径
core-site.xml
<!-- 指定HDFS中NameNode的地址 -->
<property>
<name>fs.defaultFS</name>
<value>hdfs://bigdata121:9000</value>
</property>
<!-- 指定hadoop运行时产生文件的存储目录 -->
<property>
<name>hadoop.tmp.dir</name>
<value>/opt/module/hadoop-2.7.3/tmp</value>
</property>
<!-- 回收站设置,保存时间两天 -->
<property>
<name>fs.trash.interval</name>
<value>2880</value>
</property>
hdfs-site.xml
<!-- 指定HDFS副本的数量,数据块冗余度(默认为3) -->
<property>
<name>dfs.replication</name>
<value>2</value>
</property>
<!-- 指定hadoop产生namenode、datanode文件的存储目录 -->
<!--注释配置HDFS的权限检查,默认是true-->
<property>
<name>dfs.permissions</name>
<value>false</value>
</property>
<!-- hdfs副本的配置bigdata122 -->
<property>
<name>dfs.namenode.secondary.http-address</name>
<value>bigdata122:50090</value>
</property>
<!-- 配置checkpoint时间 -->
<property>
<name>dfs.namenode.checkpoint.period</name>
<value>3600</value>
</property>
mapred-site.xml(默认没有) $ cp mapred-site.xml.template mapred-site.xml mapreduce.framework.name yarn
yarn-site.xml
<!--配置Yarn的ResourceManager的地址-->
<property>
<name>yarn.resourcemanager.hostname</name>
<value>bigdata121</value>
</property>
<property>
<name>yarn.resourcemanager.address</name>
<value>bigdata121:8032</value>
</property>
<property>
<name>yarn.resourcemanager.scheduler.address</name>
<value>bigdata121:8030</value>
</property>
<property>
<name>yarn.resourcemanager.resource-tracker.address</name>
<value>bigdata121:8031</value>
</property>
<!--NodeManager执行MR任务的方式是Shuffle洗牌-->
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
<property>
<name>yarn.nodemanager.pmem-check-enabled</name>
<value>false</value>
</property>
<property>
<name>yarn.nodemanager.vmem-check-enabled</name>
<value>false</value>
</property>
(5)修改slaves文件:
加入从节点的主机名
(6)格式化namenode
hadoop namenode -format
(7)启动:
start-all.sh //不推荐这种方式
//Hadoop启动停止
分别启动hdfs组件: hadoop-daemon.sh start|stop namenode|datanode|secondartnamenode
启动yarn: yarn-daemon.sh start|stop resourecemanager|nodemanager
各个模块分开启动:(配置ssh是前提)
start|stop-dfs.sh start|stop-yarn.sh
重复格式化:hadoop.tmp.dir
- 停止集群
- 删除原来的tmp文件。(rm -rf)
- 重新格式化
- 启动集群
Hadoop集群结构
HDFS_DownLoad
HDFS_Upload
namenode工作机制
datanode工作机制
maptask决定机制
yarn工作流程
mapreduce流程
shuffle机制
Linux环境Hadoop安装配置的更多相关文章
- Linux环境Hive安装配置及使用
Linux环境Hive安装配置及使用 一.Hive Hive环境前提 二.Hive架构原理解析 三.Hive-1.2.2单机安装流程 (1) 解压apache-hive-1.2.2-bin.tar.g ...
- Linux环境ZooKeeper安装配置及使用
Linux环境ZooKeeper安装配置及使用 一.ZooKeeper 1.1 zookeeper作用 1.2 zookeeper角色 1.3 zookeeper功能 二.集群规划 三.安装流程 (1 ...
- ubuntu linux环境下安装配置jdk和tomcat
关于linux搭建服务器,ubuntu中jdk和tomcat的安装和配置 一.jdk的安装配置 1:去官网下载好自己需要的版本,注意,linux压缩文件通常以tar.gz结尾,别下载错了.本次我下载安 ...
- Linux环境下安装配置Mysql
首先我们的使用的是linux的 centOS6 版本 安装mysql: 1.查看有没有安装包 yum list mysql* 2.进行安装mysql:一般我们在服务器端安装的都是服务端( mysql- ...
- Linux 环境下安装配置 TigerVNC Server 并启用当前会话远程服务(X0VNC)
曾经喜欢用 RealVNC Server 实现 Linux/Windows 的远程控制,因为 RealVNC 为收费商业软件,支持文件传输,性能优化方面也做得不错.但 RealVNC 从 5.0 版本 ...
- 1. VMware搭建Linux环境,安装配置centos6.5
1. 安装VMware,后新建虚拟机 2. 为我们的虚拟机挂载操作系统 3.开启我们的虚拟机,为我们的虚拟机进行安装操作系统 4.配置虚拟机连接网络 修改linux的mac地址 修改mac地址配置文件 ...
- Linux环境下安装配置vsftpd服务(三种认证模式)
一.FTP简介 文件传输协议(英文:File Transfer Protocol,缩写:FTP)是用于在网络上进行文件传输的一套标准协议.它工作于网络传输协议的应用层,使用客户/服务器模式,主要是用来 ...
- Linux环境下安装配置JDK1.8
最近在搞虚拟机,记录下虚拟机内java环境的搭建流程 一.下载合适版本的jdk 此处选择JDK1.8,各位同学可以根据自己的需求选择对应的版本,下载地址为: https://www.oracle.co ...
- Linux环境jdk安装配置
1.jdk安装包:jdk-8u191-linux-x64.tar.gz2.拷贝 jdk-8u191-linux-x64.tar.gz 到/usr/local命令如下:cp jdk-8u191-linu ...
随机推荐
- windows中关闭端口的方法
打开cmd:输入-ano | findstr "端口号" 控制台会输出占用端口的pid 如"8380" 再向cmd中输入 taskkill /f/pid 838 ...
- Spark学习进度-Spark环境搭建&Spark shell
Spark环境搭建 下载包 所需Spark包:我选择的是2.2.0的对应Hadoop2.7版本的,下载地址:https://archive.apache.org/dist/spark/spark-2. ...
- 解决Github下载仓库慢的正确姿势
上个月刚安装了 Manjaro ,然后最近在Manjaro下载Github的项目竟然只有几十b/s,这能忍?对于下载Github上的代码是硬需求,没办法直接探索一下突破的方法了. 方法一:安装chro ...
- java容器-Collection
1.介绍 collection<E>是java中容器的最主要的接口,该接口继承于Iterable<E>,使得java中所有实现Collection<E>的容器 ...
- FTP服务器的搭建和使用(centos7)
1.显示如下图则表示已安装vsftp软件 如过没有则可以通过yum源进行安装 yum install -y vsftpd 操作:service vsftpd start|stop|restart 2. ...
- apply 和 call的用法、区别
1.JavaScript中函数是对象的方法,如果一个函数不是js对象的方法那一定是全局对象的函数,每个函数的对象都有apply和call方法,即每个对象都有call and apply apply:调 ...
- wdcp 安装
lanmp一键安装包是wdlinux官网2010年开始推出的lamp,lnmp,lnamp(apache,nginx,php,mysql,zend,eAccelerator,pureftpd)应用环境 ...
- 风炫安全WEB安全学习第二十一节课 存储型XSS讲解
风炫安全WEB安全学习第二十一节课 存储型XSS讲解 存储型XSS演示 存储型XSS,持久化,代码是存储在服务器中的,如在个人信息或发表文章等地方,加入代码,如果没有过滤或过滤不严,那么这些代码将储存 ...
- 【转载】一种git commit前自动格式化的方式
查看原文 简介 这个系列为了解决一个问题:自动化的去管理代码风格和格式 前提:Linux,C语言,Clang 如何在每次commit的时候,将代码风格自动格式化后再提交commit,且格式化的内容必须 ...
- 剑指Offer-连续子数组中的最大和
题目 输入一个整型数组,数组里有正数也有负数.数组中的一个或连续多个整数组成一个子数组.求所有子数组的和的最大值.要求时间复杂度为 O(n). 输入 [1,-2,3,10,-4,7,2,-5] 返回值 ...