本例使用hortonworks 提供了 ambari 的安装方法,而且还很详细。以下是在 centos7 上的安装步骤。

基础配置:

1. 修改电脑的主机名

hostnamectl set-hostname xxx
或者vi /etc/hostname 修改

2. 编辑文件 /etc/sysconfig/network,添加下面的两行

NETWORKING=yes
HOSTNAME=xxx

3. 编辑文件 /etc/sysconfig/network-scripts/ifcfg-ens33 (ens33 是网卡的名字,实际可能有所不同),把 ONBOOT 的值改成 yes。重启系统。

4. 安装软件

yum -y install gcc gcc-c++ kernel-devel
yum -y install rpm-build
yum -y install net-tools

5. 设置最大打开文件数(至少 10000)。如果第一条命令显示的结果是大于10000的,则不用执行第二条。

ulimit -Sn
ulimit -n 10000

6. 设置时间同步

yum install -y ntp
systemctl enable ntpd
systemctl start ntpd
timedatectl set-timezone Asia/Shanghai

7. 暂停防火墙

systemctl disable firewalld
service firewalld stop

8. 禁用 SELinux。编辑 /etc/selinux/config ,设置下面的值

SELINUX=disabled
这里注意别改错了字段,改错了重启开不了机

9. 禁用 PackageKit。 编辑 /etc/yum/pluginconf.d/langpacks.conf,设置下面的值:

enabled=0

10. 各主机之间设置免密登陆。

ssh-keygen -t rsa
ssh-copy-id xxx

11. 确保 .ssh 和 authorized_keys 具有正确的权限控制

chmod 700 ~/.ssh
chmod 600 ~/.ssh/authorized_keys

12. 使用 SSH 登陆一次其它主机。因为第一次需要输入密码。

ssh root@<remote.target.host>

13. 安装 JDK,并设置环境变量

export JAVA_HOME=/opt/programs/jdk1.8.0_171
export PATH=.:$JAVA_HOME/bin:$PATH
export CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar 这里注意:如果不要将JAVA_HOME 放到/root 或者/home/<hostname>下,因为安装集群时会新建用户(没有root权限),新建的用户没有进入其他用户目录的权限。

另外,如果需要固定 IP的话,

1.

cd /etc/sysconfig/network-scripts/

2. 修改相应的文件

BOOTPROTO=static #静态
NETMASK=255.255.255.0 #掩码
IPADDR=192.168.43.96 #IP
ONBOOT=yes
GATEWAY=196.168.43.2 #网管

  

ambari部署Hadoop集群(1)的更多相关文章

  1. AMBARI部署HADOOP集群(4)

    通过 Ambari 部署 hadoop 集群 1. 打开 http://192.168.242.181:8080  登陆的用户名/密码是 : admin/admin 2. 点击 “LAUNCH INS ...

  2. ambari部署Hadoop集群(2)

    准备本地 repository 1. 下载下面的包 wget http://public-repo-1.hortonworks.com/ambari/centos7/2.x/updates/2.7.3 ...

  3. 使用Ambari部署hadoop集群

    准备工作 1. 设置sudo免密码登陆 由于CentOS安装之后,普通用户无sudo权限,故应该设置sudo权限. 参考文章:http://www.cnblogs.com/maybob/p/32988 ...

  4. 从零开始安装 Ambari (4) -- 通过 Ambari 部署 hadoop 集群

    1. 打开 http://192.168.242.181:8080  登陆的用户名/密码是 : admin/admin 2. 点击 “LAUNCH INSTALL WIZARD”,开始创建一个集群 3 ...

  5. AMBARI部署HADOOP集群(3)

    1. 安装ambari-server yum -y install ambari-server 2. ambari server 需要一个数据库存储元数据,默认使用的 Postgres 数据库.默认的 ...

  6. 手把手教你通过Ambari新建Hadoop集群图解案例

    手把手教你通过Ambari新建Hadoop集群图解案例 作者:尹正杰 版权声明:原创作品,谢绝转载!否则将追究法律责任. 登陆系统之后,会看到Ambari空空如也的欢迎界面,接下来我们就需要介绍如何通 ...

  7. 通过ambari安装hadoop集群,ZT

    通过ambari安装hadoop集群,ZT http://www.cnblogs.com/cenyuhai/p/3295635.html http://www.cnblogs.com/cenyuhai ...

  8. Docker部署Hadoop集群

    Docker部署Hadoop集群 2016-09-27 杜亦舒 前几天写了文章"Hadoop 集群搭建"之后,一个朋友留言说希望介绍下如何使用Docker部署,这个建议很好,Doc ...

  9. 如何部署hadoop集群

    假设我们有三台服务器,他们的角色我们做如下划分: 10.96.21.120 master 10.96.21.119 slave1 10.96.21.121 slave2 接下来我们按照这个配置来部署h ...

随机推荐

  1. 如何判断kbmMWClientQuery当前记录的增改状态?

    有朋友问我,客户端使用了kbmMWClientQuery,对其进行了编辑后,对于指定的记录,如何判断是否是增加的记录,或者是被修改后的记录? 下面这个函数,返回aDataSet当前记录的修改状态: f ...

  2. TCP保活定时器

    TCP有Keepalive功能,它和HTTP的Keepalive功能目的不一样.TCP服务器希望知道客户端是否崩溃.重新启动或者中间路由不通.保活定时器就提供这种功能. 在进一步介绍TCP的保活定时器 ...

  3. 织梦dedecms自定义功能函数(1):调用body中的图片(可多张)

    前言 岛主会整理或者开发一系列常用功能函数.所有自定义功能函数都是放在\include\extend.func.php文件里. 这次织梦自定义功能函数功能为:独立提取 body字段中(可以是自定义字段 ...

  4. LInux基于nginx与OpenSSL实现https访问

    注意!!首先在nginx安装时添加--with-http_ssl_module模块,否则将会报错,只能从头开始了 自建证书: 通过openssl命令(软件包:openssl :openssl-deve ...

  5. Java入门 异常处理

    Java入门 异常处理 1.处理异常(try-catch以及try-catch-finally): a)try会抛出很多种类型的异常-多重catch块的处理 eg:try{ //一些会抛出异常的方法 ...

  6. Linux 之Ubuntu在VM中安装(桌面版)

    1.安装系统 https://jingyan.baidu.com/article/14bd256e0ca52ebb6d26129c.html 2.安装VM Tools https://jingyan. ...

  7. Hdu 2147 巴什博弈 PN图

    P:先手必输   N:先手必胜 PN图规则:如果一个点能转换到的所有点都是N,那么此点状态为P.若能转化到一个P,即使对手面临必输状态,此点为N. 然后找规律就行 #include<bits/s ...

  8. 【每日一包0011】pad

    [github地址:https://github.com/ABCDdouyae...] pad 给字符串的左右加padding,也可以用于删减字符串两端 用法:pad(str, length, opt ...

  9. vector引用参数

    #include<iostream> #include<vector> using namespace std; //定义一个计算数字的函数,返回计算后的vector numb ...

  10. beeline启动时,错误 User: root is not allowed to impersonate root

    错误: beeline>!connect jdbc:hive2://192.168.33.01:10000 root rootConnecting to jdbc:hive2://192.168 ...