准备好源资源server,我使用之前的一台node4,配置都是1GB内存20GB存储

集群最好的安装方式一定是通过本地源的,假设是公共源,那么网络将会严重影响我们的安装进度。所以制作本地源是每个大数据工作者的必会技能。

1:制作ambari(1.4.1.25)本地源

下载ambari repo

拷贝到yum repo文件夹

[root@node4 ~]# cp ambari.repo /etc/yum.repos.d/

安装 yum-utils 当中有个命令是同步命令reposync 用来同步远程的yum repository

使用方法: reposync --repoid=base

[root@node4 ~]# yum install yum-utils

查看我们repo里面有什么:

[root@node4 ~]# yum repolist
Loaded plugins: fastestmirror
Loading mirror speeds from cached hostfile
 * base: mirrors.psu.ac.th
 * extras: mirrors.psu.ac.th
 * updates: mirrors.psu.ac.th
repo id                                                       repo name                                                                                           status
HDP-UTILS-1.1.0.16                                            Hortonworks Data Platform Utils Version - HDP-UTILS-1.1.0.16                                           61
Updates-ambari-1.4.1.25                                       ambari-1.4.1.25 - Updates                                                                               5
ambari-1.x                                                    Ambari 1.x                                                                                              5
base                                                          CentOS-6 - Base                                                                                     6,575
cloudera-cdh5                                                 Cloudera CDH, Version 5.5.1                                                                           146
cloudera-manager                                              Cloudera Manager, Version 5.5.1                                                                         7
extras                                                        CentOS-6 - Extras                                                                                      48
keytrustee                                                    Cloudera Navigator Key Trustee, Version 5.5.0                                                           1
updates                                                       CentOS-6 - Updates                                                                                    958
repolist: 7,806

将网络源中的包同步到本地:

reposync -r HDP-UTILS-1.1.0.16

reposync -r Updates-ambari-1.4.1.25

reposync -r ambari-1.x


HDP-UTILS-1.1.0.16 Updates-ambari-1.4.1.25 ambari-1.x拷贝到 /var/www/html/ambari下

cd /var/www/html/ambari
createrepo ./    #[root@node4 hdp]# yum install createrepo 


2:准备hortonworks hadoop
(HDP)2.0.6本地源

准备HDP网络源

[root@node4 ~]# vi /etc/yum.repos.d/HDP.repo

vi /etc/yum.repos.d/HDP.repo,加入下面内容

[HDP-2.0.6]

name=HDP

baseurl=http://public-repo-1.hortonworks.com/HDP/centos6/2.x/updates/2.0.6.0

enabled=1

gpgcheck=0

[root@node4 ~]# yum repolist
Loaded plugins: fastestmirror
Loading mirror speeds from cached hostfile
 * base: mirrors.vinahost.vn
 * extras: mirrors.vinahost.vn
 * updates: mirrors.vinahost.vn
HDP-2.0.6                                                                                                                                        | 2.9 kB     00:00
HDP-2.0.6/primary_db                                                                                                                             |  70 kB     00:01
repo id                                                       repo name                                                                                           status
HDP-2.0.6                                                     HDP                                                                                                   156
HDP-UTILS-1.1.0.16                                            Hortonworks Data Platform Utils Version - HDP-UTILS-1.1.0.16                                           61
Updates-ambari-1.4.1.25                                       ambari-1.4.1.25 - Updates                                                                               5
ambari-1.x                                                    Ambari 1.x                                                                                              5
base                                                          CentOS-6 - Base                                                                                     6,575
cloudera-cdh5                                                 Cloudera CDH, Version 5.5.1                                                                           146
cloudera-manager                                              Cloudera Manager, Version 5.5.1                                                                         7
extras                                                        CentOS-6 - Extras                                                                                      48
keytrustee                                                    Cloudera Navigator Key Trustee, Version 5.5.0                                                           1
updates                                                       CentOS-6 - Updates                                                                                    958
repolist: 7,962

reposync -r HDP-2.0.6  

耐心等待。

同步完毕。检查目录
[root@node4 ~]# ll
total 600
drwxr-xr-x   3 root root   4096 Dec 29 09:45 ambari-1.x
drwxr-xr-x  17 root root   4096 Dec 29 12:39 HDP-2.0.6
drwxr-xr-x  18 root root   4096 Dec 29 09:40 HDP-UTILS-1.1.0.16

查看文件大小:
du: cannot access `work/testing': No such file or directory
[root@node4 ~]# du -h --max-depth=1 
65M     ./HDP-UTILS-1.1.0.16
2.8M    ./iptraf-3.0.0
8.0K    ./.pki
38M     ./ambari-1.x
2.1G    ./HDP-2.0.6
2.2G    . 

HDP-2.0.6 拷贝到http server的/var/www/html/hdp下
cd /var/www/html/hdp

createrepo ./  
create是创建的意思。repo是repository的缩写,是仓库的意思。
yum(Yellow dog Updater,Modified)基本的功能是方便加入、删除和更新rpm软件包。能够解决软件包依存问题,更便于管理大量的系统更新问题。

它能够同一时候配置多个仓库或叫资源库(repository),就是存放更新和依存的软件包的地方。


[root@node4 hdp]# yum install createrepo 
[root@node4 hdp]# createrepo ./
Spawning worker 0 with 131 pkgs
Workers Finished
Gathering worker results

Saving Primary metadata
Saving file lists metadata
Saving other metadata
Generating sqlite DBs
Sqlite DBs complete
这样hadoop的本地源就做好了

打开链接:http://192.168.1.44/hdp/

3.制作Centos系统源

手动mount系统光盘
[root@node4 mnt]# mount /dev/cdrom  /var/www/html/centos/
mount: block device /dev/sr0 is write-protected, mounting read-only
[root@node4 mnt]# cd /var/www/html/centos/
[root@node4 centos]# ll
total 82
-r--r--r-- 1 root root    14 Nov 29  2013 CentOS_BuildTag
dr-xr-xr-x 3 root root  2048 Nov 29  2013 EFI
-r--r--r-- 1 root root   212 Nov 27  2013 EULA
-r--r--r-- 1 root root 18009 Nov 27  2013 GPL
dr-xr-xr-x 3 root root  2048 Nov 29  2013 images
dr-xr-xr-x 2 root root  2048 Nov 29  2013 isolinux
dr-xr-xr-x 2 root root 40960 Nov 29  2013 Packages
-r--r--r-- 1 root root  1354 Nov 27  2013 RELEASE-NOTES-en-US.html
dr-xr-xr-x 2 root root  4096 Nov 29  2013 repodata
-r--r--r-- 1 root root  1706 Nov 27  2013 RPM-GPG-KEY-CentOS-6
-r--r--r-- 1 root root  1730 Nov 27  2013 RPM-GPG-KEY-CentOS-Debug-6
-r--r--r-- 1 root root  1730 Nov 27  2013 RPM-GPG-KEY-CentOS-Security-6
-r--r--r-- 1 root root  1734 Nov 27  2013 RPM-GPG-KEY-CentOS-Testing-6
-r--r--r-- 1 root root  3380 Nov 29  2013 TRANS.TBL

4.制作HDP-UTILS-1.1.0.17源

到此本地源就差点儿相同了。可是到了安装的时候发现

 redhat6
HDP-2.0
HDP-UTILS-1.1.0.17而不是我们安装的HDP-UTILS-1.1.0.16所以我们须要再次反复以上的步骤,下载HDP-UTILS-1.1.0.17源
改动ambari.repo
[root@node4 yum.repos.d]# vi ambari.repo 
[ambari-1.x]
name=Ambari 1.x
gpgcheck=1
enabled=1
priority=1

[HDP-UTILS-1.1.0.17]
name=Hortonworks Data Platform Utils Version - HDP-UTILS-1.1.0.17
gpgcheck=0
enabled=1
priority=1

[Updates-ambari-1.4.1.25]
name=ambari-1.4.1.25 - Updates
gpgcheck=1
enabled=1
priority=1


[root@node4 yum.repos.d]# reposync -r HDP-UTILS-1.1.0.17

将HDP-UTILS-1.1.0.17拷贝到server就可以

至此,我们有三个源:



Charles 2015-12-30于Phnom Phen




版权说明:
本文由Charles Dong原创,本人支持开源以及免费故意的传播,反对商业化谋利。

CSDN博客:http://blog.csdn.net/mrcharles
个人站:http://blog.xingbod.cn
EMAIL:charles@xingbod.cn

hadoop集群ambari搭建(2)之制作hadoop本地源的更多相关文章

  1. hadoop集群ambari搭建(1)之ambari-server安装

    Apache Ambari是一种基于Web的工具,支持Apache Hadoop集群的供应.管理和监控. Ambari眼下已支持大多数Hadoop组件,包含HDFS.MapReduce.Hive.Pi ...

  2. hadoop集群环境搭建之安装配置hadoop集群

    在安装hadoop集群之前,需要先进行zookeeper的安装,请参照hadoop集群环境搭建之zookeeper集群的安装部署 1 将hadoop安装包解压到 /itcast/  (如果没有这个目录 ...

  3. hadoop集群环境搭建之zookeeper集群的安装部署

    关于hadoop集群搭建有一些准备工作要做,具体请参照hadoop集群环境搭建准备工作 (我成功的按照这个步骤部署成功了,经实际验证,该方法可行) 一.安装zookeeper 1 将zookeeper ...

  4. Hadoop集群环境搭建步骤说明

    Hadoop集群环境搭建是很多学习hadoop学习者或者是使用者都必然要面对的一个问题,网上关于hadoop集群环境搭建的博文教程也蛮多的.对于玩hadoop的高手来说肯定没有什么问题,甚至可以说事“ ...

  5. hadoop集群环境搭建准备工作

    一定要注意hadoop和linux系统的位数一定要相同,就是说如果hadoop是32位的,linux系统也一定要安装32位的. 准备工作: 1 首先在VMware中建立6台虚拟机(配置默认即可).这是 ...

  6. hadoop集群的搭建与配置(2)

    对解压过后的文件进行从命名 把"/usr/hadoop"读权限分配给hadoop用户(非常重要) 配置完之后我们要创建一个tmp文件供以后的使用 然后对我们的hadoop进行配置文 ...

  7. hadoop集群的搭建

    hadoop集群的搭建 1.ubuntu 14.04更换成阿里云源 刚刚开始我选择了nat模式,所有可以连通网络,但是不能ping通,我就是想安装一下mysql,因为安装手动安装mysql太麻烦了,然 ...

  8. 关于hadoop集群管理系统搭建的规划说明

    Hadoop集群管理系统搭建是每个入门级新手都非常头疼的事情,因为你可能花费了很久的时间在搭建运行环境,最终却不知道什么原因无法创建成功.但对新手来说,运行环境搭建不成功的概率还蛮高的. 在之前的分享 ...

  9. hadoop集群的搭建(分布式安装)

    集群 计算机集群是一种计算机系统,他通过一组松散集成的计算机软件和硬件连接起来高度紧密地协同完成计算工作. 集群系统中的单个计算机通常称为节点,通常通过局域网连接. 集群技术的特点: 1.通过多台计算 ...

随机推荐

  1. 【bzoj1954】Pku3764 The xor-longest Path Trie树

    题目描述  给定一棵n个点的带权树,求树上最长的异或和路径 输入 The input contains several test cases. The first line of each test ...

  2. 【Luogu】P3979遥远的国度(树链剖分)

    题目链接 不会换根从暑假开始就困扰我了……拖到现在…… 会了还是很激动的. 换根操作事实上不需要(也不能)改树剖本来的dfs序……只是在query上动动手脚…… 设全树的集合为G,以root为根,u在 ...

  3. [LOJ#2255][BZOJ5017][Snoi2017]炸弹

    [LOJ#2255][BZOJ5017][Snoi2017]炸弹 试题描述 在一条直线上有 N 个炸弹,每个炸弹的坐标是 Xi,爆炸半径是 Ri,当一个炸弹爆炸时,如果另一个炸弹所在位置 Xj 满足: ...

  4. 《常见问题集》Maven

    1.Maven Eclipse插件要不要安装? [解决方法] 打开你的Eclipse,如果已经有Maven了就不用装插件了. 方法一:没有的话或者下载最新的Eclipse(maven插件,eclips ...

  5. tomcat Enabling JMX Remote

    wiki 利用JMX做存活监控 cat /opt/wiki/work/bin/setenv.sh | grep jmxremoteCATALINA_OPTS="-Dcom.sun.manag ...

  6. Number Sequence(poj 1019)

    题意: 有一串数字串,其规律为 1 12 123 1234 12345 123456 1234567 12345678 123456789 12345678910 1234567891011 1234 ...

  7. mysql开发必知必会

    mysql的数据库的数据库,即存储mysql数据库的底层目录,是在/var/lib/mysql目录下(Linux,win在目录下的data中). 我们新创建的数据库db1就是在/var/lib/mys ...

  8. webUpload上传插件的一些bug

    当你给上传按钮的父级或当前元素添加一个display:none时 你可能遇到了这样的一个问题.当你在点击显示这个按钮时 你发现按钮失效了 你需要点击F12才可以. flash 版本太低,请至少大于等于 ...

  9. Java 基础【04】数组内存分配

    可能Java 数组大家都很熟悉,最近我遇到了一个关于Java 数组内存分配的问题. 突然发现许多书上“基本数据类型存储在栈内存当中,对象则保存在堆内存”这句话完全是错误的.下面是个简单的例子代码: p ...

  10. [AI开发]深度学习如何选择GPU?

    机器推理在深度学习的影响下,准确性越来越高.速度越来越快.深度学习对人工智能行业发展的贡献巨大,这得益于现阶段硬件计算能力的提升.互联网海量训练数据的出现.本篇文章主要介绍深度学习过程中如何选择合适的 ...