准备好源资源server,我使用之前的一台node4,配置都是1GB内存20GB存储

集群最好的安装方式一定是通过本地源的,假设是公共源,那么网络将会严重影响我们的安装进度。所以制作本地源是每个大数据工作者的必会技能。

1:制作ambari(1.4.1.25)本地源

下载ambari repo

拷贝到yum repo文件夹

[root@node4 ~]# cp ambari.repo /etc/yum.repos.d/

安装 yum-utils 当中有个命令是同步命令reposync 用来同步远程的yum repository

使用方法: reposync --repoid=base

[root@node4 ~]# yum install yum-utils

查看我们repo里面有什么:

[root@node4 ~]# yum repolist
Loaded plugins: fastestmirror
Loading mirror speeds from cached hostfile
 * base: mirrors.psu.ac.th
 * extras: mirrors.psu.ac.th
 * updates: mirrors.psu.ac.th
repo id                                                       repo name                                                                                           status
HDP-UTILS-1.1.0.16                                            Hortonworks Data Platform Utils Version - HDP-UTILS-1.1.0.16                                           61
Updates-ambari-1.4.1.25                                       ambari-1.4.1.25 - Updates                                                                               5
ambari-1.x                                                    Ambari 1.x                                                                                              5
base                                                          CentOS-6 - Base                                                                                     6,575
cloudera-cdh5                                                 Cloudera CDH, Version 5.5.1                                                                           146
cloudera-manager                                              Cloudera Manager, Version 5.5.1                                                                         7
extras                                                        CentOS-6 - Extras                                                                                      48
keytrustee                                                    Cloudera Navigator Key Trustee, Version 5.5.0                                                           1
updates                                                       CentOS-6 - Updates                                                                                    958
repolist: 7,806

将网络源中的包同步到本地:

reposync -r HDP-UTILS-1.1.0.16

reposync -r Updates-ambari-1.4.1.25

reposync -r ambari-1.x


HDP-UTILS-1.1.0.16 Updates-ambari-1.4.1.25 ambari-1.x拷贝到 /var/www/html/ambari下

cd /var/www/html/ambari
createrepo ./    #[root@node4 hdp]# yum install createrepo 


2:准备hortonworks hadoop
(HDP)2.0.6本地源

准备HDP网络源

[root@node4 ~]# vi /etc/yum.repos.d/HDP.repo

vi /etc/yum.repos.d/HDP.repo,加入下面内容

[HDP-2.0.6]

name=HDP

baseurl=http://public-repo-1.hortonworks.com/HDP/centos6/2.x/updates/2.0.6.0

enabled=1

gpgcheck=0

[root@node4 ~]# yum repolist
Loaded plugins: fastestmirror
Loading mirror speeds from cached hostfile
 * base: mirrors.vinahost.vn
 * extras: mirrors.vinahost.vn
 * updates: mirrors.vinahost.vn
HDP-2.0.6                                                                                                                                        | 2.9 kB     00:00
HDP-2.0.6/primary_db                                                                                                                             |  70 kB     00:01
repo id                                                       repo name                                                                                           status
HDP-2.0.6                                                     HDP                                                                                                   156
HDP-UTILS-1.1.0.16                                            Hortonworks Data Platform Utils Version - HDP-UTILS-1.1.0.16                                           61
Updates-ambari-1.4.1.25                                       ambari-1.4.1.25 - Updates                                                                               5
ambari-1.x                                                    Ambari 1.x                                                                                              5
base                                                          CentOS-6 - Base                                                                                     6,575
cloudera-cdh5                                                 Cloudera CDH, Version 5.5.1                                                                           146
cloudera-manager                                              Cloudera Manager, Version 5.5.1                                                                         7
extras                                                        CentOS-6 - Extras                                                                                      48
keytrustee                                                    Cloudera Navigator Key Trustee, Version 5.5.0                                                           1
updates                                                       CentOS-6 - Updates                                                                                    958
repolist: 7,962

reposync -r HDP-2.0.6  

耐心等待。

同步完毕。检查目录
[root@node4 ~]# ll
total 600
drwxr-xr-x   3 root root   4096 Dec 29 09:45 ambari-1.x
drwxr-xr-x  17 root root   4096 Dec 29 12:39 HDP-2.0.6
drwxr-xr-x  18 root root   4096 Dec 29 09:40 HDP-UTILS-1.1.0.16

查看文件大小:
du: cannot access `work/testing': No such file or directory
[root@node4 ~]# du -h --max-depth=1 
65M     ./HDP-UTILS-1.1.0.16
2.8M    ./iptraf-3.0.0
8.0K    ./.pki
38M     ./ambari-1.x
2.1G    ./HDP-2.0.6
2.2G    . 

HDP-2.0.6 拷贝到http server的/var/www/html/hdp下
cd /var/www/html/hdp

createrepo ./  
create是创建的意思。repo是repository的缩写,是仓库的意思。
yum(Yellow dog Updater,Modified)基本的功能是方便加入、删除和更新rpm软件包。能够解决软件包依存问题,更便于管理大量的系统更新问题。

它能够同一时候配置多个仓库或叫资源库(repository),就是存放更新和依存的软件包的地方。


[root@node4 hdp]# yum install createrepo 
[root@node4 hdp]# createrepo ./
Spawning worker 0 with 131 pkgs
Workers Finished
Gathering worker results

Saving Primary metadata
Saving file lists metadata
Saving other metadata
Generating sqlite DBs
Sqlite DBs complete
这样hadoop的本地源就做好了

打开链接:http://192.168.1.44/hdp/

3.制作Centos系统源

手动mount系统光盘
[root@node4 mnt]# mount /dev/cdrom  /var/www/html/centos/
mount: block device /dev/sr0 is write-protected, mounting read-only
[root@node4 mnt]# cd /var/www/html/centos/
[root@node4 centos]# ll
total 82
-r--r--r-- 1 root root    14 Nov 29  2013 CentOS_BuildTag
dr-xr-xr-x 3 root root  2048 Nov 29  2013 EFI
-r--r--r-- 1 root root   212 Nov 27  2013 EULA
-r--r--r-- 1 root root 18009 Nov 27  2013 GPL
dr-xr-xr-x 3 root root  2048 Nov 29  2013 images
dr-xr-xr-x 2 root root  2048 Nov 29  2013 isolinux
dr-xr-xr-x 2 root root 40960 Nov 29  2013 Packages
-r--r--r-- 1 root root  1354 Nov 27  2013 RELEASE-NOTES-en-US.html
dr-xr-xr-x 2 root root  4096 Nov 29  2013 repodata
-r--r--r-- 1 root root  1706 Nov 27  2013 RPM-GPG-KEY-CentOS-6
-r--r--r-- 1 root root  1730 Nov 27  2013 RPM-GPG-KEY-CentOS-Debug-6
-r--r--r-- 1 root root  1730 Nov 27  2013 RPM-GPG-KEY-CentOS-Security-6
-r--r--r-- 1 root root  1734 Nov 27  2013 RPM-GPG-KEY-CentOS-Testing-6
-r--r--r-- 1 root root  3380 Nov 29  2013 TRANS.TBL

4.制作HDP-UTILS-1.1.0.17源

到此本地源就差点儿相同了。可是到了安装的时候发现

 redhat6
HDP-2.0
HDP-UTILS-1.1.0.17而不是我们安装的HDP-UTILS-1.1.0.16所以我们须要再次反复以上的步骤,下载HDP-UTILS-1.1.0.17源
改动ambari.repo
[root@node4 yum.repos.d]# vi ambari.repo 
[ambari-1.x]
name=Ambari 1.x
gpgcheck=1
enabled=1
priority=1

[HDP-UTILS-1.1.0.17]
name=Hortonworks Data Platform Utils Version - HDP-UTILS-1.1.0.17
gpgcheck=0
enabled=1
priority=1

[Updates-ambari-1.4.1.25]
name=ambari-1.4.1.25 - Updates
gpgcheck=1
enabled=1
priority=1


[root@node4 yum.repos.d]# reposync -r HDP-UTILS-1.1.0.17

将HDP-UTILS-1.1.0.17拷贝到server就可以

至此,我们有三个源:



Charles 2015-12-30于Phnom Phen




版权说明:
本文由Charles Dong原创,本人支持开源以及免费故意的传播,反对商业化谋利。

CSDN博客:http://blog.csdn.net/mrcharles
个人站:http://blog.xingbod.cn
EMAIL:charles@xingbod.cn

hadoop集群ambari搭建(2)之制作hadoop本地源的更多相关文章

  1. hadoop集群ambari搭建(1)之ambari-server安装

    Apache Ambari是一种基于Web的工具,支持Apache Hadoop集群的供应.管理和监控. Ambari眼下已支持大多数Hadoop组件,包含HDFS.MapReduce.Hive.Pi ...

  2. hadoop集群环境搭建之安装配置hadoop集群

    在安装hadoop集群之前,需要先进行zookeeper的安装,请参照hadoop集群环境搭建之zookeeper集群的安装部署 1 将hadoop安装包解压到 /itcast/  (如果没有这个目录 ...

  3. hadoop集群环境搭建之zookeeper集群的安装部署

    关于hadoop集群搭建有一些准备工作要做,具体请参照hadoop集群环境搭建准备工作 (我成功的按照这个步骤部署成功了,经实际验证,该方法可行) 一.安装zookeeper 1 将zookeeper ...

  4. Hadoop集群环境搭建步骤说明

    Hadoop集群环境搭建是很多学习hadoop学习者或者是使用者都必然要面对的一个问题,网上关于hadoop集群环境搭建的博文教程也蛮多的.对于玩hadoop的高手来说肯定没有什么问题,甚至可以说事“ ...

  5. hadoop集群环境搭建准备工作

    一定要注意hadoop和linux系统的位数一定要相同,就是说如果hadoop是32位的,linux系统也一定要安装32位的. 准备工作: 1 首先在VMware中建立6台虚拟机(配置默认即可).这是 ...

  6. hadoop集群的搭建与配置(2)

    对解压过后的文件进行从命名 把"/usr/hadoop"读权限分配给hadoop用户(非常重要) 配置完之后我们要创建一个tmp文件供以后的使用 然后对我们的hadoop进行配置文 ...

  7. hadoop集群的搭建

    hadoop集群的搭建 1.ubuntu 14.04更换成阿里云源 刚刚开始我选择了nat模式,所有可以连通网络,但是不能ping通,我就是想安装一下mysql,因为安装手动安装mysql太麻烦了,然 ...

  8. 关于hadoop集群管理系统搭建的规划说明

    Hadoop集群管理系统搭建是每个入门级新手都非常头疼的事情,因为你可能花费了很久的时间在搭建运行环境,最终却不知道什么原因无法创建成功.但对新手来说,运行环境搭建不成功的概率还蛮高的. 在之前的分享 ...

  9. hadoop集群的搭建(分布式安装)

    集群 计算机集群是一种计算机系统,他通过一组松散集成的计算机软件和硬件连接起来高度紧密地协同完成计算工作. 集群系统中的单个计算机通常称为节点,通常通过局域网连接. 集群技术的特点: 1.通过多台计算 ...

随机推荐

  1. BZOJ2653 middle 【二分 + 主席树】

    题目 一个长度为n的序列a,设其排过序之后为b,其中位数定义为b[n/2],其中a,b从0开始标号,除法取下整.给你一个 长度为n的序列s.回答Q个这样的询问:s的左端点在[a,b]之间,右端点在[c ...

  2. 刷题总结——做运动(NOIP模拟)

    题目: 给定一个无向图,节点数n<=50000,m<=1000000,每条边有两个值t和c,边的长度为t*c···现在要求再t尽量小的情况下,求两节点st的最短距离 题解: 第一次做的时候 ...

  3. [NOIP2009] 提高组 洛谷P1074 靶形数独

    题目描述 小城和小华都是热爱数学的好学生,最近,他们不约而同地迷上了数独游戏,好胜的他 们想用数独来一比高低.但普通的数独对他们来说都过于简单了,于是他们向 Z 博士请教, Z 博士拿出了他最近发明的 ...

  4. Spring入门 (IOC)

    1.实现原理

  5. hdu 5690(模运算)

    All X Time Limit: 2000/1000 MS (Java/Others)    Memory Limit: 65536/65536 K (Java/Others)Total Submi ...

  6. AC日记——线段树练习4 codevs 4919

    4919 线段树练习4  时间限制: 1 s  空间限制: 128000 KB  题目等级 : 黄金 Gold 题解  查看运行结果     题目描述 Description 给你N个数,有两种操作 ...

  7. AC日记——Count on a tree bzoj 2588

    Description 给定一棵N个节点的树,每个点有一个权值,对于M个询问(u,v,k),你需要回答u xor lastans和v这两个节点间第K小的点权.其中lastans是上一个询问的答案,初始 ...

  8. Codeforces 23E Tree(树型DP)

    题目链接 Tree $dp[x][i]$表示以x为根的子树中x所属的连通快大小为i的时候 答案最大值 用$dp[x][j]$ * $dp[y][k]$ 来更新$dp[x][j + k]$. (听高手说 ...

  9. 计蒜客 UCloud 的安全秘钥(随机化+Hash)

    题目链接 UCloud 的安全秘钥 对于简单的版本,我们直接枚举每个子序列,然后sort一下判断是否完全一样即可. #include <bits/stdc++.h> using names ...

  10. ML | spectral clustering

    What's xxx In multivariate statistics and the clustering of data, spectral clustering techniques mak ...