学习要点

  • 体系架构、原理
  • 多做练习、试验

装虚拟机

  • 网络模式:仅主机模式
  • software selection:development tools, GUI
  • network & host name:host name,打开网卡开关,开机启动网卡,手动分配ip
  • installation destination:磁盘大小
  • kdump, security policy:关掉
  • root:设置密码
  • reboot
  • 许可协议:接受(1->2->q->yes)
  • 下一步,关掉没用的
  • 随便起个用户名,不设置密码

远程登录

  • putty / xshell

linux配置

  • 关闭防火墙(永久)

    • systemctl stop firewalld.service
    • systemctl disable firewalld.service
    • systemctl status firewalld.service:查看防火墙状态
  • 设置主机名和ip对应关系
    • vi /etc/hosts ip+主机名
  • /tmp 目录
    • 重启后删除数据
    • HDFS默认的数据保存目录,需更改

 文件目录

  • 隐藏文件  /root/.bash_profile  存放环境变量
  • 隐藏目录  /root/.ssh  配置免密码登录(Hadoop和Spark)

常用操作

  • 查看后台进程

    • ps -ef | grep redis-server:查看redis-server进程
  • 杀死进程
    • kill -9 进程号:强制杀死
    • kill -3 进程号:Java进程,打印Java进程的Thread Dump

安装JDK

  • 解压安装  

    • tar -zxvf jdk-8u144-linux-x64.tar.gz -C /root/training
    • /root/training/jdk1.8.0_144
  • 设置环境变量

安装Hadoop

  • 解压安装

    • tar -zxvf hadoop-2.7.3.tar.gz -C ~/training/
  • 安装tree命令
    • rpm -ivh tree-1.6.0-10.el7.x86_64.rpm
    • tree hadoop-2.7.3/ -d -L 3:查看hadoop的3层目录
  • 设置环境变量

  

本地模式

  • 没有HDFS,只能测试MapReduce程序(不是运行在Yarn中,作为独立Java程序运行)
  • 修改配置文件
    • vi hadoop-env.sh
    • export JAVA_HOME=/root/training/jdk1.8.0_144
  • MapReduce例子
    • cd ~/training/hadoop-2.7.3/share/hadoop/mapreduce/
    • hadoop jar hadoop-mapreduce-examples-2.7.3.jar wowordcount /root/temp/input/data.txt /root/temp/output/wc

伪分布模式

  • 单机模拟分布式环境,具备Hadoop所有功能

    • HDFS:NameNode + DataNode + SecondaryNameNode
    • Yarn:ResourceManager + NodeManager
  • 修改配置文件
    • hadoop-env.sh(同上)
    • hdfs-site.xml

1 <property>
2 <name>dfs.replication</name>
3 <value>1</value>
4 </property>
5 <property>
6 <name>dfs.permission</name>
7 <value>false</value>
8 </property>
    • core-site.xml

1 <property>
2 <name>fs.defaultFS</name>
3 <value>hdfs://bigdata111:9000</value>
4 </property>
5 <property>
6 <name>hadoop.tmp.dir</name>
7 <value>/root/training/hadoop-2.7.3/tmp</value>
8 </property>
  • mapred-site.xml(mv mapred-site.xml.template mapred-site.xml)

1 <property>
2 <name>mapreduce.framework.name</name>
3 <value>yarn</value>
4 </property>  
  • yarn-site.xml

1 <property>
2 <name>yarn.resourcemanager.hostname</name>
3 <value>bigdata111</value>
4 </property>
5 <property>
6 <name>yarn.nodemanager.aux-services</name>
7 <value>mapreduce_shuffle</value>
8 </property>
  • 对HDFS的NameNode进行格式化

    • 创建 /root/training/hadoop-2.7.3/tmp
    • hdfs namenode -format
    • Storage directory /root/training/hadoop-2.7.3/tmp/dfs/name has been successfully formatted

  

  • 启动

    • HDFS:start-dfs.sh
    • Yarn:start-yarn.sh
    • start-all.sh
    • jps:查看进程
    • 通过Web Console访问
      • Yarn:8088
      • hdfs:50070
  • SSH免密码登录
    • 对称加密:加密解密同ls .一个文件
    • 不对称加密:加密解密两个文件(公钥私钥;谁登录谁生成)
    • 配置
      • ssh-keygen -t rsa:生成密钥对(RSA算法,一路回车)

      • ssh-copy-id -i .ssh/id_rsa.pub root@bigdata111

    • 认证:

      • B随机产生一个字符串,用A的公钥加密后发回给A
      • A收到B发来的字符串,用私钥解密后发回给B
      • B对比两个字符串是否一样
      • ssh bigdata111

全分布模式

  • 至少3台机器
  • 主节点bigdata112,从节点bigdata113、bigdata114
  • 安装Linux、JDK、关闭防火墙
  • 配置免密码登录(两两之间)
  • 保证集群时间同步
  • 在主节点上安装hadoop,将安装好的目录复制到从节点上
  • 在主节点上启动集群,执行程序

 HA模式

  • 集群功能:Fail Over(失败迁移)、Load Balance(负载均衡)
  • 实现失败迁移
  • 两个NameNode,一个Active,一个StandBy
  • 客户端连接ZK获取主节点信息
  • NameNode通过FailOverController向ZK发送状态信息
  • JournalNode(至少两个)管理NameNode的日志,通过日志恢复元信息
  • 一个NameNode挂掉后,通过ZK进行切换
  • 理论上需要9台机器:ZK(3)+JournalNode(2)+NameNode(2)+DataNode(2)
  • 简化后需要4台

  • 在bigdata112上安装ZK,配置好后复制到bigdata113、bigdata114
  • 在bigdata112上安装hadoop,配置好后复制到bigdata113、bigdata114、bigdata115
    • 在 hdfs-site.xml 中配置隔离机制,否则会导致脑裂

      • 脑裂:HA环境中,同一时刻,HDFS中存在多个Active的NameNode,DataNode不知道听谁指挥
      • 为何脑裂:网络问题,心跳信息没有成功发送到ZK,ZK切换NameNode
      • 如何隔离:切换NameNode前,先Kill掉其他NameNode
  • 启动ZK集群
  • 启动bigdata112、bigdata113 的 journalNode
  • 在bigdata112上格式化HDFS
    • hdfs namenode -format
    • 将/root/training/hadoop-2.7.3/tmp拷贝到bigdata113的/root/training/hadoop-2.7.3/tmp下(保证两个NameNode维护信息一致)
    • hdfs zkfc -formatZK
  • 在bigdata112上启动Hadoop集群(bigdata113上的ResourceManager需要单独启动)

HDFS联盟

  • 实现负载均衡

    • 分摊客户端压力
    • 缓存更多元信息
  • 两个NameNode都是Active
    • 两个NameNode维护的是不一样的元信息
    • 每个DataNode向不同的NameNode注册
    • 通过集群前端的代理服务器根据路由规则转发客户端请求
    • 代理服务器和NameNode在一起
  • 搭建
    • 集群规划

      • NameNode:bigdata112  bigdata113
      • DataNode:bigdata114  bigdata115
    • 在bigdata112上安装hadoop
    • 配置路由规则(viewFS),修改core-site.xml文件
    • 复制到bigdata113、bigdata114、bigdata115
    • 在NameNode(bigdata112、bigdata113)上格式化   
    • 根据路由规则,在每个NameNode上创建目录
    • 操作HDFS
      • 看到的是viewFS定义的路由规则

集群脚本

  • 配置文件

deploy.conf

1 #集群角色规划
2 node01,master,all,hadoop,hive
3 node02,slave,all,hadoop,hive
4 node03,slave,all,hadoop,hive
  • 集群分发脚本

    • 授权脚本:chmod u+x runRemoteCmd.sh

deploy.sh

 1 #!/bin/bash
2 if [ $# -lt 3 ]
3 then
4 echo "Usage:./deploy.sh srcFile(or Dir) descFile(or Dir) MachineTag"
5 echo "Usage:./deploy.sh srcFile(or Dir) descFile(or Dir) MachineTag confFile"
6 exit
7 fi
8
9 src=$1
10 dest=$2
11 tag=$3
12
13 if [ 'b'$4'b' == 'bb' ]
14 then
15 confFile=/root/tools/deploy.conf
16 else
17 confFile=$4
18 fi
19 if [ -f $confFile ]
20 then
21 if [ -f $src ]
22 then
23 for server in `cat $confFile | grep -v '^#' | grep ','$tag',' | awk -F',' '{print $1}'`
24 do
25 scp $src $server":"$dest
26 done
27 elif [ -d $src ]
28 then
29 for server in `cat $confFile | grep -v '^#' | grep ','$tag',' | awk -F',' '{print $1}'`
30 do
31 scp -r $src $server":"$dest
32 done
33 else
34 echo "Error:No source file exist"
35 fi
36 else
37 echo "Error:Please assign config file"
38 fi
  • 命令同步脚本

runRemoteCmd.sh

 1 #!/bin/bash
2 if [ $# -lt 2 ]
3 then
4 echo "Usage:./runRemoteCmd.sh Command MachineTag"
5 echo "Usage:./runRemoteCmd.sh Command MachineTag confFile"
6 exit
7 fi
8
9 cmd=$1
10 tag=$2
11
12 if [ 'b'$3'b' == 'bb' ]
13 then
14 confFile=/root/tools/deploy.conf
15 else
16 confFile=$3
17 fi
18 if [ -f $confFile ]
19 then
20 for server in `cat $confFile | grep -v '^#' | grep ','$tag',' | awk -F',' '{print $1}'`
21 do
22 echo "*************$server***************"
23 ssh $server "source /etc/profile; $cmd"
24 done
25 else
26 echo "Error:Please assign config file"
27 fi

  • 安装jdk

    • 创建软连接(快捷方式):ln -s jdk1.8.0_51 jdk
    • 环境变量
      • .bashrc:用户级
      • /etc/profile:全局

时间同步

  • CentOS7用ntpdate
  • CentOS8用chrony
  • 查看版本:cat /etc/*release

参考

厦大公开课

https://dblab.xmu.edu.cn/post/8197/

集群脚本课程

https://edu.csdn.net/course/play/11032/239269

linux shell 参数传递

https://www.runoob.com/linux/linux-shell-passing-arguments.html

chrony服务安装与配置

https://baijiahao.baidu.com/s?id=1655260653687604326&wfr=spider&for=pc

修改阿里云id

https://blog.csdn.net/dianyeyu0359/article/details/102335754

linux空格问题

https://blog.csdn.net/dreamerway/article/details/20449381

kafka自动化脚本部署

https://blog.csdn.net/sinat_32176947/article/details/79690653

大数据环境安装

https://www.jianshu.com/p/a4a0e7e4e4b7

[DB] 大数据集群安装的更多相关文章

  1. centos7 ambari2.6.1.5+hdp2.6.4.0 大数据集群安装部署

    前言 本文是讲如何在centos7(64位) 安装ambari+hdp,如果在装有原生hadoop等集群的机器上安装,需要先将集群服务停掉,然后将不需要的环境变量注释掉即可,如果不注释掉,后面虽然可以 ...

  2. 全网最详细的大数据集群环境下如何正确安装并配置多个不同版本的Cloudera Hue(图文详解)

    不多说,直接上干货! 为什么要写这么一篇博文呢? 是因为啊,对于Hue不同版本之间,其实,差异还是相对来说有点大的,具体,大家在使用的时候亲身体会就知道了,比如一些提示和界面. 全网最详细的大数据集群 ...

  3. Ubuntu14.04下Ambari安装搭建部署大数据集群(图文分五大步详解)(博主强烈推荐)

    不多说,直接上干货! 写在前面的话 (1) 最近一段时间,因担任我团队实验室的大数据环境集群真实物理机器工作,至此,本人秉持负责.认真和细心的态度,先分别在虚拟机上模拟搭建ambari(基于CentO ...

  4. Ubuntu14.04下Cloudera安装搭建部署大数据集群(图文分五大步详解)(博主强烈推荐)(在线或离线)

    第一步: Cloudera Manager安装之Cloudera Manager安装前准备(Ubuntu14.04)(一) 第二步: Cloudera Manager安装之时间服务器和时间客户端(Ub ...

  5. 大数据集群环境 zookeeper集群环境安装

    大数据集群环境 zookeeper集群环境准备 zookeeper集群安装脚本,如果安装需要保持zookeeper保持相同目录,并且有可执行权限,需要准备如下 编写脚本: vi zkInstall.s ...

  6. CDH版本大数据集群下搭建Hue(hadoop-2.6.0-cdh5.5.4.gz + hue-3.9.0-cdh5.5.4.tar.gz)(博主推荐)

    不多说,直接上干货! 我的集群机器情况是 bigdatamaster(192.168.80.10).bigdataslave1(192.168.80.11)和bigdataslave2(192.168 ...

  7. 使用ansible部署CDH 5.15.1大数据集群

    使用ansible离线部署CDH 5.15.1大数据集群 作者:尹正杰 版权声明:原创作品,谢绝转载!否则将追究法律责任. 在此之前,我之前分享过使用shell自定义脚本部署大数据集群,不管是部署CD ...

  8. 全网最详细的大数据集群环境下多个不同版本的Cloudera Hue之间的界面对比(图文详解)

    不多说,直接上干货! 为什么要写这么一篇博文呢? 是因为啊,对于Hue不同版本之间,其实,差异还是相对来说有点大的,具体,大家在使用的时候亲身体会就知道了,比如一些提示和界面. 安装Hue后的一些功能 ...

  9. 关于在真实物理机器上用cloudermanger或ambari搭建大数据集群注意事项总结、经验和感悟心得(图文详解)

    写在前面的话 (1) 最近一段时间,因担任我团队实验室的大数据环境集群真实物理机器工作,至此,本人秉持负责.认真和细心的态度,先分别在虚拟机上模拟搭建ambari(基于CentOS6.5版本)和clo ...

随机推荐

  1. istio: 无法提供内部访问外部服务

    现象 能够内部无法访问外部服务. 在部署测试服务 kubectl apply -f samples/sleep/sleep.yaml 设置环境变量 export SOURCE_POD=$(kubect ...

  2. List集合中的交集 并集和差集

    目录 List集合求交集 并集 差集 Set集合 Lambda表达式 List集合求交集 并集 差集 两种方法求集 Set集合 交集 两个集合中有相同的元素 抽取出来的数据就是为交集 @Test pu ...

  3. gitee 学习笔记

    这个流程只能是在自己的测试仓库中联系哟 首先创建一个自己的仓库 接下来安装git客户端,通过gitee官网给了一个例子创建ssh密钥 然后输入命令 get clone 你仓库的https 或者ssh地 ...

  4. docker命令快速入门

    docker快速入门系列 Docker hello world hello world $ docker run ubuntu:15.10 /bin/echo "Hello world&qu ...

  5. (九)VMware Harbor 项目管理-上传/下载镜像

    VMware Harbor项目管理 Harbor中的项目包含应用程序的所有存储库. Harbor有两类项目: 公共:所有用户都拥有公共项目的读取权限,您可以方便地以这种方式与其他人共享一些存储库. 私 ...

  6. JAVAEE_Servlet_17_关于乱码问题

    关于乱码问题 * 数据传递过程中的乱码 解释:数据传递过程中的乱码是指: 将数据从浏览器发送给服务器的时候,服务器接收到的数据是乱码的. - ISO-8859-1 是国际标准码,不支持中文编码,它兼容 ...

  7. kubernetes之pod拓扑分布约束

    在日常使用 kubernetes 的过程中中,很多时候我们并没有过多的关心 pod 的到底调度在哪里,只是通过多副本的测试,来提高的我们的业务的可用性,但是当多个相同业务 pod 在分布在相同节点时, ...

  8. Mysql下可能存在注入的点。

    总结下mysql下可能存在注入的点,适用于mssql和oracle,先写语句,以后再写语句可能出现在哪些场景下: 针对查询: select * from x where id=* select * f ...

  9. 1045 Favorite Color Stripe

    Eva is trying to make her own color stripe out of a given one. She would like to keep only her favor ...

  10. JavaScript数组详解-全网最全

    定义数组的方式 定义数组的方式有多种,分别如下 let array=[] (字面量) let array=new Array() let array=new Array([length]) lengt ...