一、工具说明

设备:实体主机一台  校园网络  

虚拟设备:VMware下安装的ubuntu12.04版本三台,分别是master,slave1,slave2

二、ubuntu安装篇

前提知识:在windows平台用SecureCRT连接虚拟机机器的时候,必须是同一网关下,虚拟机选择NAT网络模式的话生成的ip是192.168.138.XXX形式,与要求不符,最终要修改为桥接形式,不过桥接形式下不能上网,所以安装完系统后先用NAT模式把要下载的东西下载好再改为桥接

Ubuntu安装完成后,root是没有设置密码的,需要先为root设置密码,执行

juefan:~$ sudo passwd
[sudo] password for juefan: 输入密码
输入新的 UNIX 密码: 在此设置root的密码
重新输入新的 UNIX 密码:

用root登录,创建用户组并创建该组下的新用户

root:~#groupadd ghadoop
root:~#useradd hadoop -g ghadoop

安装ssh然后就可以用SecureCRT登录进行操作

apt-get install openssh-server

安装jdk,并查看jdk安装的目录,方便jdk转移统一管理

apt-get install openjdk--jre-headless
ls -l $(which java)

一般上面会输出结果为

lrwxrwxrwx  root root  -- : /usr/bin/java -> /etc/alternatives/java

这个还不是真正的jdk的安装位置,只是一个指向,最终的jdk安装路径是在 /usr/lib/jvm下面,把其下的jdk移动到/opt/java,然后删除/usr/bin/java,再做一个软链接到java就可以了

mv /usr/lib/jvm/java--openjdk-i386 /opt/java
rm /usr/bin/java
ln -s /opt/java/bin/java /usr/bin/java

一般在安装完hadoop的时候会用jps确定组件是否启动,所以也要先把这个功能安装了

apt-get install openjdk--jdk

刚刚在上面转移了jdk后,出现错误了,所以还是不要转移的好

刚刚发现还有俩个功能需要在线安装的 vim 和 lzrz

apt-get install lrzsz

系统基本上就安装完成了,接下来进行hadoop部署环节

三、hadoop部署篇

首先下载hadoop,在这里用的是hadoop1.0.3版本 hadoop-1.0.3.tar.gz

解压hadoop-1.0.3.tar.gz 并将其移动到其它目录

tar -zxvf hadoop-1.0..tar.gz
mv hadoop-1.0. /opt/hadoop

修改环境变量,打开/etc/profile,要用root才能编辑

root:~# vim /etc/profile

export JAVA_HOME=/opt/java
export JRE_HOME=/opt/java/jre
export CLASSPATH=.:$JAVA_HOME/lib:$JRE_HOME/lib:$CLASSPATH
export PATH=$JAVA_HOME/bin:$JRE_HOME/bin:$PATH
export HADOOP_HOME=/opt/hadoop
export PATH=$HADOOP_HOME/bin:$PATH

进入/opt/hadoop/conf,修改相应的配置文件

$ vim hadoop-env.sh
export JAVA_HOME=/opt/java

同时修改core-site.xml 和hdfs-site.xml 及mapred-site.xml

$vim core-site.xml
<configuration>
<property>
<name>hadoop.tmp.dir</name>
<value>/hadoop</value>
</property>
<property>
<name>fs.default.name</name>
<value>hdfs://master:9000</value>
</property>
<property>
<name>dfs.hosts.exclude</name>
<value>excludes</value>
</property>
<property>
<name>dfs.name.dir</name>
<value>/hadoop/name</value>
</property>
</configuration>
$vim hdfs-site.xml
<configuration>
<property>
<name>dfs.data.dir</name>
<value>/hadoop/data</value>
</property> <property>
<name>dfs.replication</name>
<value></value>
</property> </configuration>
$vim mapred-site.xml
<configuration> <property>
<name>mapred.job.tracker</name>
<value>master:</value>
</property> </configuration>

hadoop的基本配置之类的就差不多完成了,接下来要进行克隆操作,在克隆之前可以先把部分host修改了,打开/opt/hadoop/conf/master和slaves,将其修改为

$vim master
master
$vim slaves
master
slave1
slave2

至此,可以进行克隆操作了......

  克隆操作完成以后 , 需要修改每个节点的hostname , 按照上面的对应关系去修改即可

四、hive安装篇

   一般情况下 , 在实际环境中大家的操作都会集中在某一台或几台机器中 , 所以在安装hive的时候可以只安装那些大家有权限操作的节点 , 在此本人选择了安装在master节点中 , 因为还要安装mysql之类的 , 方便管理.  

   首先下载hive,在这里用的是hive-0.10.0版本 hive-0.10.0.tar.gz

解压hive-0.10.0.tar.gz 并将其移动到其它目录

tar -zxvf hive-0.10.0.tar.gzmv hive-0.10.0 /opt/hive

  修改环境变量,打开/etc/profile,要用root才能编辑

root:~# vim /etc/profile

export  HIVE_HOME=/opt/hive
export PATH=$HIVE_HOME/bin:$PATH

  进入/opt/hive/conf,将目录下hive-env.sh.template中的HADOOP_HOME为改实际的Hadoop安装目录 , 并将hive-env.sh.template复制并命名为hive-env.sh , 再增加执行权限

  打开HDFS(执行 start-all.sh)

  为hive创建HDFS上的默认文件夹

hadoop fs -mkdir /tmp
hadoop fs -mkdir /user/hive/warehouse
hadoop fs -chmod g+w /tmp
hadoop fs -chmod g+w /user/hive/warehouse

  将conf下面的hive-default.xml.template复制两份,分别命名为hive-default.xml(用于保留默认配置)和hive-site.xml(用于个性化配置,可覆盖默认配置)

  至此 , hive的基本配置已经弄好.

执行hive , 看看有没有跳到 hive的shell 界面 , 有的话就基本完成了.

[hadoop@all-RTB-- ~]$ hive
WARNING: org.apache.hadoop.metrics.jvm.EventCounter is deprecated. Please use org.apache.hadoop.log.metrics.EventCounter in all the log4j.properties files.
Logging initialized using configuration in jar:file:/data1/program/hive-0.10./lib/hive-common-0.10..jar!/hive-log4j.properties
Hive history file=/tmp/hadoop/hive_job_log_hadoop_201311051220_287110733.txt
hive>

个人计算机安装hadoop全分布的更多相关文章

  1. 用三台虚拟机搭建Hadoop全分布集群

    用三台虚拟机搭建Hadoop全分布集群 所有的软件都装在/home/software下 虚拟机系统:centos6.5 jdk版本:1.8.0_181 zookeeper版本:3.4.7 hadoop ...

  2. 菩提树下的杨过.Net 的《hadoop 2.6全分布安装》补充版

    对菩提树下的杨过.Net的这篇博客<hadoop 2.6全分布安装>,我真是佩服的五体投地,我第一次见过教程能写的这么言简意赅,但是又能比较准确表述每一步做法的,这篇博客主要就是在他的基础 ...

  3. hadoop学习笔记(六):hadoop全分布式集群的环境搭建

    本文原创,如需转载,请注明作者以及原文链接! 一.前期准备: 1.jdk安装        不要用centos7自带的openJDK2.hostname    配置       配置位置:/etc/s ...

  4. Hadoop(三)手把手教你搭建Hadoop全分布式集群

    前言 上一篇介绍了伪分布式集群的搭建,其实在我们的生产环境中我们肯定不是使用只有一台服务器的伪分布式集群当中的.接下来我将给大家分享一下全分布式集群的搭建! 其实搭建最基本的全分布式集群和伪分布式集群 ...

  5. Hadoop(三)搭建Hadoop全分布式集群

    原文地址:http://www.cnblogs.com/zhangyinhua/p/7652686.html 阅读目录(Content) 一.搭建Hadoop全分布式集群前提 1.1.网络 1.2.安 ...

  6. Hadoop全分布模式操作

    http://blog.csdn.net/wangloveall/article/details/20767161 摘要:介绍Hadoop全分布模式操作,实现真正意义上的集群架构. 关键词:Hadoo ...

  7. centos 6.4-linux环境配置,安装hadoop-1.1.2(hadoop伪分布环境配置)

    1 Hadoop环境搭建 hadoop 的6个核心配置文件的作用: core-site.xml:核心配置文件,主要定义了我们文件访问的格式hdfs://. hadoop-env.sh:主要配置我们的j ...

  8. hadoop 2.6全分布安装

    环境:centos 6.6 + hadoop2.6 虚拟机:(vmware fusion 7.0.0) 虚拟机hostname      /    IP地址 master / 192.168.187. ...

  9. 【Hadoop故障处理】全分布下,DataNode进程正常启动,但是网页上不显示,并且DataNode节点为空

    [故障背景] DataNode进程正常启动,但是网页上不显示,并且DataNode节点为空. /etc/hosts   的ip和hostname配置正常,各个机器之间能够ping通. [日志错误信息] ...

随机推荐

  1. 《python源代码分析》笔记 pythonVM一般表达式

    本文senlie原版的.转载请保留此地址:http://blog.csdn.net/zhengsenlie 1.字节码指令 LOAD_CONST:从consts表中读取序号为i的元素并压入到执行时栈中 ...

  2. 什么时候rootViewController至tabbarController时刻,控制屏幕旋转法

    于ios6后,ios系统改变了屏幕旋转的方法,假设您想将屏幕旋转法,在需求rootvc里面制备,例如 UIViewController *viewCtrl = [[UIViewController a ...

  3. Java设计模式偷跑系列(十二)组合模式建模和实现

    转载请注明出处:http://blog.csdn.net/lhy_ycu/article/details/39828653 组合模式(Composite):组合模式有时又叫部分-总体模式.将对象组合成 ...

  4. getch()和getchar()之再讨论

    原文:getch()和getchar()之再讨论 在C语言的字符处理函数中,getch()和getchar()是经常让人迷惑的两个函数,他们都有一些“奇怪的”特点让初学者摸不着头脑.两个函数有很多相似 ...

  5. php 常用 小知识点

    PHP 邮箱正则表达式代码如下: /^([a-z0-9])(([-a-z0-9._])*([a-z0-9]))*\@([a-z0-9])*(\.([a-z0-9])([-a-z0-9_-])([a-z ...

  6. 安卓CTS官方文档之兼容性测试套件简介

    官方英文文档原文:https://source.android.com/compatibility/cts-intro.html Compatibility Test Suite 兼容性测试套件 Ho ...

  7. APACHE启动失败是SYSTEM对apache目录没权限导致

    表现如下: Apache: 1.The Apache service named reported the following error:>>> (OS 5)拒绝访问. : htt ...

  8. uva 11529 - Strange Tax Calculation(计数问题)

    题目链接:uva 11529 - Strange Tax Calculation 题目大意:给出若干个点,保证随意三点不共线.随意选三个点作为三角行,其它点若又在该三角形内,则算是该三角形内部的点.问 ...

  9. Nodejs使用coffeescript编写的用户注册/登陆代码(MySQL)

    记录一下,以备后用 Settings = require '../../settings.js' exports.register = (req, res) -> nick_name = req ...

  10. Linux分配给该用户没有权限登陆

    Linux分配给该用户没有权限登陆 sudo visudo username ALL=(ALL) NOPASSWD:ALL 版权声明:本文博客原创文章,博客,未经同意,不得转载.