说到Hadoop不得不说云计算了,我这里大概说说云计算的概念,事实上百度百科里都有,我仅仅是copy过来,好让我的这篇hadoop博客内容不显得那么单调、骨感。云计算近期今年炒的特别火,我也是个刚開始学习的人。记下我自学hadoop的一些经历和过程。

云计算(cloud computing)是基于互联网的相关服务的添加、使用和交付模式,通常涉及通过互联网来提供动态易扩展且常常是虚拟化的资源。

云是网络、互联网的一种比喻说法。过去在图中往往用云来表示电信网,后来也用来表示互联网和底层基础设施的抽象。因此,云计算甚至能够让你体验每秒10万亿次的运算能力,拥有这么强大的计算能力能够模拟核爆炸、预測气候变化和市场发展趋势。用户通过电脑、笔记本、手机等方式接入数据中心。按自己的需求进行运算。对云计算的定义有多种说法。对于究竟什么是云计算,至少能够找到100种解释。眼下广为接受的是美国国家标准与技术研究院(NIST)定义:云计算是一种按使用量付费的模式,这样的模式提供可用的、便捷的、按需的网络訪问,
进入可配置的计算资源共享池(资源包含网络,server,存储。应用软件,服务)。这些资源可以被高速提供。仅仅需投入非常少的管理工作,或与服务供应商进行非常少的交互。

(以上是照搬百度百科的。别吐槽啊。跪谢了……)。

说完了云计算。我们来说说Hadoop的概念吧,Hadoop是一个分布式的基础架构,由Apache基金会开发。Hadoop实现了一个分布式文件系统也就是兴许文章会说到的HDFS。HDFS有高容错性的特点,并且设计用来部署在低廉的硬件上。并且它提供高传输率来訪问应用程序的数据,适合那些有着超大数据集的应用程序。

HDFS放宽了(relax)POSIX的要求。能够以流的形式訪问文件系统中的数据。Hadoop的框架最核心的设计就是:HDFS和MapReduce.HDFS为海量的数据提供了存储,则MapReduce为海量的数据提供了计算。

好吧。太罗嗦了。写那么多概念大部分都是从百度百科里摘抄下来的。我厌烦了。以下来讲讲怎样配置部署Hadoop环境,首先要说的是,眼下Hadoop版本号已经到2的版本号了,可是非常遗憾,我作为一个刚開始学习的人,我还是比較喜欢一步一个脚印的学习,所以我们今天要讲的是Hadoop1的部署和配置,以后的篇章也是针对Hadoop1的版本号来学习。

Hadoop能够装在非常多的操作系统上,比方Windows上,Linux上。苹果的Mac OSX上。因为眼下的经常使用的生产环境都是Linux操作系统。所以我们本章之讲在Linux操作系统下怎样配置部署Hadoop。Hadoop部署方式有三种各自是单机模式伪分布式模式分布式模式

因为本人电脑配置有限,无法虚拟太多的Linux环境,所以我们今天临时仅仅讲伪分布式的部署方式。至于单机模式,本文章不讲述,后面的篇幅我会讲分布式模式的配置步骤。

准备环境:Ubuntu12jdk-6u45-linux-i586.binhadoop-1.0.4.tar.gz(作为程序猿来讲,这些大家都是能够在官网弄到手的,我就不给下载地址了……假设读者看到这里,或许会吐槽了,Hadoop不止这些啊。Hbase哪去了、Hive数据仓库哪里去了?这太扯了吧……呵呵,我想说的是,一步一步的来,会的大神么就别吐槽我了,我菜鸟一枚,以后的篇章我会一一写出来这些内容,我做好了持久战的准备……

首先进入 Ubuntu操作系统,检查一下Ubuntu是否安装了java jdk。

好吧。进入我们的Ubuntu终端,输入java -version,看看是否已经安装的sun公司的jdk,如图:

好吧。我这里是安装好的,没有安装jdk的同学。我继续说了。

将我们的jdk-6u45-linux-i586.bin文件考入到ubuntu的/home/zhaolong/下,好吧,我有一个这种用户。你们依照你们的路径来吧。在Linux安装jdk事实上就是一个文件解压的过程,安装前必须给当前这个文件进行授权。

cd命令进入我们jdk文件所在的文件夹。也就是/home/zhaolong/下,键入命令chmod
777 jdk-6u45-linux-i586.bin。

文件授权完成之后,我们開始解压,使用./jdk-6u45-linux-i586.bin命令解压jdk文件。

解压完毕之后,我们使用vi .bashrc命令进入到.bashrc文件编辑模式。

我们要配置环境变量,在.bashrc文件的最后一行以下输入:

export JAVA_HOME=/home/zhaolong/jdk1.6.0_45 和 export PATH=/bin:$JAVA_HOME/bin:/usr/bin:$PATH:. 

编辑完毕后按ESC键然后输入:wq保存退出。使用. .bashrc命令使其生效。这时候我们再来用java
-version
来验证我们是否成功安装jdk了,不出意外应该会出现上图的内容。

接下来,我们来配置SSH的无password登录,假设SSH有password的话。每次启动每一个节点都要又一次输入password。这是一件非常麻烦的事情。

首先使用命令sudo apt-get install ssh安装ssh,安装的过程须要联网,下载有点慢,要有点耐心……

成功安装后,输入ssh-keygen命令,不用理会以下的内容,一路回车就可以,结束后会在~/.ssh/文件夹下生成了两个文件:id_dsa
id_rsa.pub
。这两个文件是成对出现的类似钥匙和锁,再把id_dsa.pub文件拷贝到~/.ssh/文件夹的authorizde_keys里详细命令为:cp id_dsa.pub authorizde_keys

SSH我们安装配置好了,接着,我们安装Hadoop。将下载好的hadoop文件hadoop-1.0.4.tar.gz复制到/home/zhaolong/下。和安装JDK一样,我们要设置文件的权限,不然无法解压。设置hadoop-1.0.4.tar.gz文件的权限。命令为:chmod
777 hadoop-1.0.4.tar.gz

解压解压hadoop-1.0.4.tar.gz文件,命令为:tar
xzvf hadoop-1.0.4.tar.gz

解压完毕后。加入hadoop bin到环境变量中。

详细操作依旧是改动.bashrc文件最以下的$PATH环境变量。操作和上面的配置JDK的环境变量一样,我就不赘述了。

Hadoop环境变量配置好后,我们须要配置一些Hadoop的配置文件,我们须要进入到hadoop/conf文件夹下。

1、改动:hadoop-env.sh配置文件,文件内容添加

export JAVA_HOME=/home/zhaolong/jdk1.6.0_45

2、改动:core-site.xml配置文件。文件内容添加

<configuration>

<property>

<name>fs.default.name</name>

<value>hdfs://localhost:9000</value>

</property>

<property>

<name>hadoop.tmp.dir</name>

<value>/hadoop</value>

</property>

</configuration>

3、改动:hdfs-site.xml配置文件。文件内容添加

<configuration>

<property>

<name>dfs.replication</name>

<value>1</value>

</property>

</configuration>

4、改动:mapred-site.xml配置文件。文件内容添加

<configuration>

<property>

<name>mapred.job.tracker</name>

<value>localhost:9001</value>

</property>

</configuration>

以上4步骤都配置完毕后,我们须要启动一下Hadoop来验证我们的环境是否部署成功。启动前。必须先格式化文件系统,当然这个格式化文件系统仅仅在第一次启动是进行,以后不须要又一次格式化文件系统。格式化文件系统的命令为:hadoop
namenode -format

文件系统格式化须要等待一段时间,只是不会非常长,格式化完毕之后。我们能够尝试着启动Hadoop了。为了方便我们start-all.sh命令启动全部的服务。

我们启动了所以的服务。

好吧大概说一下Hadoop启动和停止的经常使用命令,

(1)格式化文件系统,命令为:hadoop
namenode -format

(2)启动关闭全部服务:start-all.sh/stop-all.sh

(3)启动关闭HDFS:start-dfs.sh/stop-dfs.sh

(4)启动关闭MapReduce:start-mapred.sh/stop-mapred.sh

(5)使用jps命令查看进程,确保有namenode。dataNode,JobTracker

(6)Job
Tracker管理界面:http://localhost:50030

(7)HDFS管理界面:http://localhost:50070

(8)HDFS通信port:9000

(9)MapReduce通信port:9001

先写到这吧。夜深了,该睡觉了……写的比較笼统,先这样吧。晚安……

Hadoop之中的一个:Hadoop的安装部署的更多相关文章

  1. cas 单点登录(SSO)之中的一个: jasig cas-server 安装

    cas 单点登录(SSO)实验之中的一个: jasig cas-server 安装 參考文章: http://my.oschina.net/indestiny/blog/200768#comments ...

  2. hadoop 2.7.1 高可用安装部署

    hadoop集群规划 目标:创建2个NameNode,做高可用,一个NameNode挂掉,另一个能够启动:一个运行Yarn,3台DataNode,3台Zookeeper集群,做高可用. 在hadoop ...

  3. Hadoop第12周练习—HBase安装部署

    1  1.1 1.2 :安装HBase 2.1 内容 运行环境说明 1.1 硬软件环境 线程,主频2.2G,6G内存 l  虚拟软件:VMware® Workstation 9.0.0 build-8 ...

  4. mysql学习之中的一个:mysql安装

    我用的时mac系统,本来想在mac系统上装一个,可是发现mac系统始终无法用password登入到本机server,很奇怪的问题(在stackflow上看了些回复,也没有找到原因),最后仅仅好装到虚拟 ...

  5. hadoop入门(3)——hadoop2.0理论基础:安装部署方法

    一.hadoop2.0安装部署流程         1.自动安装部署:Ambari.Minos(小米).Cloudera Manager(收费)         2.使用RPM包安装部署:Apache ...

  6. Hadoop入门进阶课程13--Chukwa介绍与安装部署

    本文版权归作者和博客园共有,欢迎转载,但未经作者同意必须保留此段声明,且在文章页面明显位置给出原文连接,博主为石山园,博客地址为 http://www.cnblogs.com/shishanyuan  ...

  7. Hadoop入门进阶课程8--Hive介绍和安装部署

    本文版权归作者和博客园共有,欢迎转载,但未经作者同意必须保留此段声明,且在文章页面明显位置给出原文连接,博主为石山园,博客地址为 http://www.cnblogs.com/shishanyuan  ...

  8. Ganglia监控Hadoop集群的安装部署[转]

    Ganglia监控Hadoop集群的安装部署 一. 安装环境 Ubuntu server 12.04 安装gmetad的机器:192.168.52.105 安装gmond的机 器:192.168.52 ...

  9. hadoop集群环境搭建之zookeeper集群的安装部署

    关于hadoop集群搭建有一些准备工作要做,具体请参照hadoop集群环境搭建准备工作 (我成功的按照这个步骤部署成功了,经实际验证,该方法可行) 一.安装zookeeper 1 将zookeeper ...

随机推荐

  1. [Usaco2009 Nov]lights

    题目描述: 给出$n$,$m$,表示有$n$盏灯和$m$条奇怪的电线,按下电线一段的灯后另一端会有影响. 求最少按几次. 题解: 高消解异或方程组,得到一堆自由元后搜索自由元状态,然后不断更新答案. ...

  2. AHOI2014/JSOI2014 奇怪的计算器

    题目描述 题解: 考虑到经过一系列变化后小数不可能比大数大,我们可以用线段树维护区间修改. 重点是,每个节点都可以通过$a[i]=a[i]*t1+a0[i]*t2+t3$这个函数来表示,我们就可以把三 ...

  3. maven打包oracle jdbc驱动

    背景 由于版权问题,maven中央仓库缺少oracle jdbc的驱动,这个给开发带来了很多不便利性.也出现各种各样的解决方案,基本就两种思路: 将oracle驱动安装到本地仓库,这个需要大家统一好名 ...

  4. Verdi:内存不足

    如果进行Verdi compile时,出现memory资源不够用.有可能case中出现了问题(或许发生了死循环,造成内存严重占用),此时尽量瘦身TC_FILE_LIST文件,缩小问题case的范围.

  5. svn基本使用详情

    1.增加(Add)先提到变更列表中,再commit到配置库中,选择新增文件,右键SVN菜单执行“Add“操作提交到”变更列表中”,然后右键SVN菜单执行”SVNCommit”提交到版本库中. 2.删除 ...

  6. python基础知识02-序列类型的方法

    列表的方法: 增:append() insert() extend()只能添加序列类型. .改li[0]= '123' li.insert(2,'123') 2个参数,位置,值 li.remove(' ...

  7. Django-模型层(1)

    ORM MVC或者MTV框架中包括一个重要的部分,就是ORM,它实现了数据模型与数据库的解耦,即数据模型的设计不需要依赖于特定的数据库,通过简单的配置即可以轻松更换数据库,这极大的减轻了开发人员的工作 ...

  8. CF 977 F. Consecutive Subsequence

    题意: 第一场div3, 求的是一个序列中最长连续(a,a+1,a+2...)子序列. 分析: 设一个DP[i] 表示 序列以i结尾的最长长度, 一开始都设为0. 那么如果这个数是a, 他的最长长度就 ...

  9. MySQL存储过程中一直困扰的 の 变量中的@

    在声明变量中CREATE function Get_StrArrayLength ( @str varchar(1024), --要分割的字符串@split varchar(10) --分隔符号)re ...

  10. python017 Python3 模块

    Python3 模块在前面的几个章节中我们脚本上是用 python 解释器来编程,如果你从 Python 解释器退出再进入,那么你定义的所有的方法和变量就都消失了.为此 Python 提供了一个办法, ...