准备好源资源server,我使用之前的一台node4,配置都是1GB内存20GB存储

集群最好的安装方式一定是通过本地源的,假设是公共源,那么网络将会严重影响我们的安装进度。所以制作本地源是每个大数据工作者的必会技能。

1:制作ambari(1.4.1.25)本地源

下载ambari repo

拷贝到yum repo文件夹

[root@node4 ~]# cp ambari.repo /etc/yum.repos.d/

安装 yum-utils 当中有个命令是同步命令reposync 用来同步远程的yum repository

使用方法: reposync --repoid=base

[root@node4 ~]# yum install yum-utils

查看我们repo里面有什么:

[root@node4 ~]# yum repolist
Loaded plugins: fastestmirror
Loading mirror speeds from cached hostfile
 * base: mirrors.psu.ac.th
 * extras: mirrors.psu.ac.th
 * updates: mirrors.psu.ac.th
repo id                                                       repo name                                                                                           status
HDP-UTILS-1.1.0.16                                            Hortonworks Data Platform Utils Version - HDP-UTILS-1.1.0.16                                           61
Updates-ambari-1.4.1.25                                       ambari-1.4.1.25 - Updates                                                                               5
ambari-1.x                                                    Ambari 1.x                                                                                              5
base                                                          CentOS-6 - Base                                                                                     6,575
cloudera-cdh5                                                 Cloudera CDH, Version 5.5.1                                                                           146
cloudera-manager                                              Cloudera Manager, Version 5.5.1                                                                         7
extras                                                        CentOS-6 - Extras                                                                                      48
keytrustee                                                    Cloudera Navigator Key Trustee, Version 5.5.0                                                           1
updates                                                       CentOS-6 - Updates                                                                                    958
repolist: 7,806

将网络源中的包同步到本地:

reposync -r HDP-UTILS-1.1.0.16

reposync -r Updates-ambari-1.4.1.25

reposync -r ambari-1.x


HDP-UTILS-1.1.0.16 Updates-ambari-1.4.1.25 ambari-1.x拷贝到 /var/www/html/ambari下

cd /var/www/html/ambari
createrepo ./    #[root@node4 hdp]# yum install createrepo 


2:准备hortonworks hadoop
(HDP)2.0.6本地源

准备HDP网络源

[root@node4 ~]# vi /etc/yum.repos.d/HDP.repo

vi /etc/yum.repos.d/HDP.repo,加入下面内容

[HDP-2.0.6]

name=HDP

baseurl=http://public-repo-1.hortonworks.com/HDP/centos6/2.x/updates/2.0.6.0

enabled=1

gpgcheck=0

[root@node4 ~]# yum repolist
Loaded plugins: fastestmirror
Loading mirror speeds from cached hostfile
 * base: mirrors.vinahost.vn
 * extras: mirrors.vinahost.vn
 * updates: mirrors.vinahost.vn
HDP-2.0.6                                                                                                                                        | 2.9 kB     00:00
HDP-2.0.6/primary_db                                                                                                                             |  70 kB     00:01
repo id                                                       repo name                                                                                           status
HDP-2.0.6                                                     HDP                                                                                                   156
HDP-UTILS-1.1.0.16                                            Hortonworks Data Platform Utils Version - HDP-UTILS-1.1.0.16                                           61
Updates-ambari-1.4.1.25                                       ambari-1.4.1.25 - Updates                                                                               5
ambari-1.x                                                    Ambari 1.x                                                                                              5
base                                                          CentOS-6 - Base                                                                                     6,575
cloudera-cdh5                                                 Cloudera CDH, Version 5.5.1                                                                           146
cloudera-manager                                              Cloudera Manager, Version 5.5.1                                                                         7
extras                                                        CentOS-6 - Extras                                                                                      48
keytrustee                                                    Cloudera Navigator Key Trustee, Version 5.5.0                                                           1
updates                                                       CentOS-6 - Updates                                                                                    958
repolist: 7,962

reposync -r HDP-2.0.6  

耐心等待。

同步完毕。检查目录
[root@node4 ~]# ll
total 600
drwxr-xr-x   3 root root   4096 Dec 29 09:45 ambari-1.x
drwxr-xr-x  17 root root   4096 Dec 29 12:39 HDP-2.0.6
drwxr-xr-x  18 root root   4096 Dec 29 09:40 HDP-UTILS-1.1.0.16

查看文件大小:
du: cannot access `work/testing': No such file or directory
[root@node4 ~]# du -h --max-depth=1 
65M     ./HDP-UTILS-1.1.0.16
2.8M    ./iptraf-3.0.0
8.0K    ./.pki
38M     ./ambari-1.x
2.1G    ./HDP-2.0.6
2.2G    . 

HDP-2.0.6 拷贝到http server的/var/www/html/hdp下
cd /var/www/html/hdp

createrepo ./  
create是创建的意思。repo是repository的缩写,是仓库的意思。
yum(Yellow dog Updater,Modified)基本的功能是方便加入、删除和更新rpm软件包。能够解决软件包依存问题,更便于管理大量的系统更新问题。

它能够同一时候配置多个仓库或叫资源库(repository),就是存放更新和依存的软件包的地方。


[root@node4 hdp]# yum install createrepo 
[root@node4 hdp]# createrepo ./
Spawning worker 0 with 131 pkgs
Workers Finished
Gathering worker results

Saving Primary metadata
Saving file lists metadata
Saving other metadata
Generating sqlite DBs
Sqlite DBs complete
这样hadoop的本地源就做好了

打开链接:http://192.168.1.44/hdp/

3.制作Centos系统源

手动mount系统光盘
[root@node4 mnt]# mount /dev/cdrom  /var/www/html/centos/
mount: block device /dev/sr0 is write-protected, mounting read-only
[root@node4 mnt]# cd /var/www/html/centos/
[root@node4 centos]# ll
total 82
-r--r--r-- 1 root root    14 Nov 29  2013 CentOS_BuildTag
dr-xr-xr-x 3 root root  2048 Nov 29  2013 EFI
-r--r--r-- 1 root root   212 Nov 27  2013 EULA
-r--r--r-- 1 root root 18009 Nov 27  2013 GPL
dr-xr-xr-x 3 root root  2048 Nov 29  2013 images
dr-xr-xr-x 2 root root  2048 Nov 29  2013 isolinux
dr-xr-xr-x 2 root root 40960 Nov 29  2013 Packages
-r--r--r-- 1 root root  1354 Nov 27  2013 RELEASE-NOTES-en-US.html
dr-xr-xr-x 2 root root  4096 Nov 29  2013 repodata
-r--r--r-- 1 root root  1706 Nov 27  2013 RPM-GPG-KEY-CentOS-6
-r--r--r-- 1 root root  1730 Nov 27  2013 RPM-GPG-KEY-CentOS-Debug-6
-r--r--r-- 1 root root  1730 Nov 27  2013 RPM-GPG-KEY-CentOS-Security-6
-r--r--r-- 1 root root  1734 Nov 27  2013 RPM-GPG-KEY-CentOS-Testing-6
-r--r--r-- 1 root root  3380 Nov 29  2013 TRANS.TBL

4.制作HDP-UTILS-1.1.0.17源

到此本地源就差点儿相同了。可是到了安装的时候发现

 redhat6
HDP-2.0
HDP-UTILS-1.1.0.17而不是我们安装的HDP-UTILS-1.1.0.16所以我们须要再次反复以上的步骤,下载HDP-UTILS-1.1.0.17源
改动ambari.repo
[root@node4 yum.repos.d]# vi ambari.repo 
[ambari-1.x]
name=Ambari 1.x
gpgcheck=1
enabled=1
priority=1

[HDP-UTILS-1.1.0.17]
name=Hortonworks Data Platform Utils Version - HDP-UTILS-1.1.0.17
gpgcheck=0
enabled=1
priority=1

[Updates-ambari-1.4.1.25]
name=ambari-1.4.1.25 - Updates
gpgcheck=1
enabled=1
priority=1


[root@node4 yum.repos.d]# reposync -r HDP-UTILS-1.1.0.17

将HDP-UTILS-1.1.0.17拷贝到server就可以

至此,我们有三个源:



Charles 2015-12-30于Phnom Phen




版权说明:
本文由Charles Dong原创,本人支持开源以及免费故意的传播,反对商业化谋利。

CSDN博客:http://blog.csdn.net/mrcharles
个人站:http://blog.xingbod.cn
EMAIL:charles@xingbod.cn

hadoop集群ambari搭建(2)之制作hadoop本地源的更多相关文章

  1. hadoop集群ambari搭建(1)之ambari-server安装

    Apache Ambari是一种基于Web的工具,支持Apache Hadoop集群的供应.管理和监控. Ambari眼下已支持大多数Hadoop组件,包含HDFS.MapReduce.Hive.Pi ...

  2. hadoop集群环境搭建之安装配置hadoop集群

    在安装hadoop集群之前,需要先进行zookeeper的安装,请参照hadoop集群环境搭建之zookeeper集群的安装部署 1 将hadoop安装包解压到 /itcast/  (如果没有这个目录 ...

  3. hadoop集群环境搭建之zookeeper集群的安装部署

    关于hadoop集群搭建有一些准备工作要做,具体请参照hadoop集群环境搭建准备工作 (我成功的按照这个步骤部署成功了,经实际验证,该方法可行) 一.安装zookeeper 1 将zookeeper ...

  4. Hadoop集群环境搭建步骤说明

    Hadoop集群环境搭建是很多学习hadoop学习者或者是使用者都必然要面对的一个问题,网上关于hadoop集群环境搭建的博文教程也蛮多的.对于玩hadoop的高手来说肯定没有什么问题,甚至可以说事“ ...

  5. hadoop集群环境搭建准备工作

    一定要注意hadoop和linux系统的位数一定要相同,就是说如果hadoop是32位的,linux系统也一定要安装32位的. 准备工作: 1 首先在VMware中建立6台虚拟机(配置默认即可).这是 ...

  6. hadoop集群的搭建与配置(2)

    对解压过后的文件进行从命名 把"/usr/hadoop"读权限分配给hadoop用户(非常重要) 配置完之后我们要创建一个tmp文件供以后的使用 然后对我们的hadoop进行配置文 ...

  7. hadoop集群的搭建

    hadoop集群的搭建 1.ubuntu 14.04更换成阿里云源 刚刚开始我选择了nat模式,所有可以连通网络,但是不能ping通,我就是想安装一下mysql,因为安装手动安装mysql太麻烦了,然 ...

  8. 关于hadoop集群管理系统搭建的规划说明

    Hadoop集群管理系统搭建是每个入门级新手都非常头疼的事情,因为你可能花费了很久的时间在搭建运行环境,最终却不知道什么原因无法创建成功.但对新手来说,运行环境搭建不成功的概率还蛮高的. 在之前的分享 ...

  9. hadoop集群的搭建(分布式安装)

    集群 计算机集群是一种计算机系统,他通过一组松散集成的计算机软件和硬件连接起来高度紧密地协同完成计算工作. 集群系统中的单个计算机通常称为节点,通常通过局域网连接. 集群技术的特点: 1.通过多台计算 ...

随机推荐

  1. Linux基础之Linux简介

    Linux(英语发音:/ˈlɪnəks/ lin-əks)是一种自由和开放源代码的类UNIX操作系统. Linux简介 Linux(英语发音:/ˈlɪnəks/ lin-əks)是一种自由和开放源代码 ...

  2. iOS UICollectionView高级用法(长按自由移动cell)

    iOS 9之后: 示例如下 效果 前言: 看完你可以学到哪些呢? 就是文章标题那么多, 只有那么多. . 手残效果图没弄好. @property (nonatomic, strong) UIColle ...

  3. java面试题之哨兵如何判断主服务器是否下线?

    通过流言协议来接收关于主服务器是否下线的信息,并使用投票协议来决定是否执行自动故障迁移,以及选择哪个从服务器作为新的主服务器.

  4. [转] Makefile 基础 (3) —— Makefile 书写规则

    该篇文章为转载,是对原作者系列文章的总汇加上标注. 支持原创,请移步陈浩大神博客:(最原始版本) http://blog.csdn.net/haoel/article/details/2886 我转自 ...

  5. 主机ping不通虚拟机,但是虚拟机能ping通主机

    一.虚拟机网络连接方式选择Nat 二. 关闭Linux防火墙命令:service iptables stop / service firewalld stop 查看Linux防火墙状态命令:servi ...

  6. 07深入理解C指针之---指针类型和长度

    该系列文章源于<深入理解C指针>的阅读与理解,由于本人的见识和知识的欠缺可能有误,还望大家批评指教. 如果考虑到程序的可移植性和跨平台性时,指针长度就是一个问题,需要慎重处理.一般情况下, ...

  7. 关于C++的new是否会对内存初始化的问题

    先把结论放上来: C++在new时的初始化的规律可能为:对于有构造函数的类,不论有没有括号,都用构造函数进行初始化:如果没有构造函数,则不加括号的new只分配内存空间,不进行内存的初始化,而加了括号的 ...

  8. 【leetcode】 First Missing Positive

    [LeetCode]First Missing Positive Given an unsorted integer array, find the first missing positive in ...

  9. spring MVC学习之二

    什么是Spring MVC Spring MVC属于SpringFrameWork的后续产品,已经融合在Spring Web Flow里面.Spring 框架提供了构建 Web 应用程序的全功能 MV ...

  10. java mail Received fatal alert: handshake_failure java 无法发送邮件问题 java 发送qq邮件(含源码)

     java 无法发送邮件问题 java 发送qq邮件 报错:java mail Received fatal alert: handshake_failure (使用ssl) javax.mail.M ...