最近又需要要搭hadoop环境,所以开始学习,下面是我的笔记,仅供大家参考!

Hadoop安装:

  1. JDK1.6+
  2. 操作系统:Linux,Window和Unix也可以做Hadoop的开发,只有Linux支持生产。
  3. 去hadoop发布页面下载一个稳定的版本,然后解压到文件系统的某个地方:tar xzf hadoop-x.y.xz.tar.gz(本教程针对0.x和1.x,所以建议下载目前最新的稳定版本hadoop-1.2.1版本)
  4. 设置Java_HOME环境变量,如果没有设置过,可以在conf/hadoop-env.sh中指定:(先要将这一行的注释去掉)
    export JAVA_HOME = /usr/lib/java/jdk

5. 创建一个指向Hadoop安装目录的环境变量是非常方便的(HADOOP_INSTALL),将Hadoop的二进制目录放到命令行路径上即可。

export HADOOP_INSTALL=/home/lsw/hadoop/

 export PATH=$PATH:$HADOOP_INSTALL/bin

注:其实这一步还是有问题的,通过在终端中调用上面的两个语句添加的环境变量是临时的,所以我们要通过其他方式。直接修改/ect/profile貌似行不通(因为该文件是只读的,应该可以人为修改成可读写吧),然后我就去找/home/下的一个.bashrc文件打开,通过名=值的方式[HADOOP_INSTALL=/home/lsw/hadoop-1.2.1]这种方式将所有的要添加的都放在文件末尾,保存。

然后貌似要重启啊,然后在终端中输入:

echo $HADOOP_INSTALL输出值已经成功了

6. 检查hadoop的运行,终端中输入:hadoop version

这一步貌似也除了问题啊。直接输入会提示权限不够,但是我发现我的hadoop目录下的文件都是对lsw有权限的,然后我打开hadoop/bin/hadoop这个文件夹的属性发现还有一个授予他以可执行文件运行的权限,所以只有把这个权限也给他,才能正确运行,我估计后面好多文件都要给这种权限,应该有指令进行批量操作吧。

Hadoop的配置:

 

hadoop中的每个组建都是一个xml配置文件,核心属性在core-site.xml,hdfs的是hdfs-site.xml,mapreduce属性在mapred-site.xml,这写配置文件都在conf/目录下。

(老版本的这几个配置文件在一个hadoop_site.xml中,现已拆分)

要查看这些配置文件的一些样例,可以看share/hadoop/templates/conf/下面。

      Hadoop的三种运行模式

  1. 本地模式:没有守护进程,可以在写MapReduce程序的时候进行测试和调试。程序运行在单一的JVM上(默认是本地模式)
  2. 伪分布模式:Hadoop的守护程序在本地的计算机上运行,因此是在小范围内模拟集群
  3. 完全分布模式:hadoop守护程序在一群机器上运行。

设置哪个模式运行hadoop,需要做两个事情:

1) 设置适当的属性(配置上面说的几个配置文件)

2) 启动Hadoop守护进程(第一个不需要)

本地模式:本地模式是默认的,不需要配置

      伪分布模式:

   1. 配置三个文件:(这个一定要先配置,不然后面不能启动守护进程)

<!--core-site.xml-->

<configuration>

<property>

<name>fs.default.name</name>

<value>hdfs://localhost</value>

</property>

</configuration>

<!--hdfs-site.xml-->

<configuration>

<property>

<name>dfs.replication</name>

<value>1</value>

</property>

</configuration>

<!--mapred-site.xml-->

<configuration>

<property>

<name>mapred.job.tracker</name>

<value>localhost:8021</value>

</property>

</configuration>

        2.      SSH的配置(Secure Shell

Hadoop无法区分伪分布模式和完全分布模式:SSH-ing只是在启动集群主机上的保护线程的时候才在每个主机上启动一个守护进程。主机是本地计算机的时候,伪分布模式 只是完全分布模式的一个特例。

我们要做的是:确保能够SSH到本地主机而且不需要输入密码去登陆。

          安装SSH 比较简单,在Ubuntu下:

sudo apt-get install ssh

为了自动登陆,可以用空字符生成一个新的SSH密钥:

(用空字符串生成一个密钥写入到id_rsa中)

ssh-keygen -t rsa -P '' -f ~/.ssh/id_rsa

(将id_rsa.pub文件合并到authorized_keys中)

cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys

测试登陆:

ssh localhost

如果不需要输入密码登陆就成功。

        3.      HDFS文件系统格式化:

通过创建存储目录已经名称节点的用就数据结构的最初版本来创建一个空的文件系统。文件系统的大小不需要考虑,可以自动按需增加(最初不需要考虑数据节点,因为他是由名称节点管理的)

命令:

hadoop namenode -format

       4. 开启和结束守护进程:

start-dfs.sh

start-mapred.sh

或者可以用(我们打开下面这个文件,发现她其实包含上面两条命令)

start-all.sh

第一个命令会启动三个守护进程:一个名称节点,一个二级名称节点,一个数据节点。

可以http://localhost:50030(有关jobtracker信息的页面)

或者http://localhost:50070(namenode信息页面)

结束守护进程:

stop-dfs.sh

stop-mapred.sh

或者只有一个

stop-all.sh

运行我们的测试例子:

这里我们先不要用伪分布模式,把几个配置文件里面的配置信息都删了。

然后运行命令:

hadoop 我们的jar包 对应的类 输入文件的路径 输出路径(输出文件夹不能存在)

例子:

hadoop ~/workspace/jar/Hadoop-Demo.jar cn.lsw.hd.MaxTemperature ~/workspace/hadoop_demo_data/ ~/workspace/output

然后就会执行,打开output目录,会有两个文件,一个是part-00000,一个是_SUCCESS文件。因为只有一个节点,所以只有一个part文件

过程中会打印出一些信息:

比如作业的ID :job_local_0001,,一个map任务,一个reduce任务(各自的ID )

最后有计数器(Counter),现实map的输入和输出,reduce的输入和输出。

当然,我们察看结果文件也可以通过下面的命令:

 cat [路径要全的]output/part-00000

       完全分布模式暂时还没弄,因为我目前就一台电脑了。

Ubuntu下Hadoop的安装和配置的更多相关文章

  1. Linux(Ubuntu)下MySQL的安装与配置

    转自:http://www.2cto.com/database/201401/273423.html 在Linux下MySQL的安装,我一直觉得挺麻烦的,因为之前安装时就是由于复杂的配置导致有点晕.今 ...

  2. ubuntu下的openfire安装、配置、运行

    openfire服务器              Openfire 采用Java开发,开源的实时协作(RTC)服务器基于XMPP(Jabber)协议.您可以使用它轻易的构建高效率的即时通信服务器.Op ...

  3. Ubuntu下samba的安装和配置

    samba是Linux系统上的一种文件共享协议,可以实现Windows系统访问Linux系统上的共享资源,现在介绍一下如何在Ubuntu 14.04上安装和配置samba一. 一.更新源列表 打开&q ...

  4. Ubuntu16.04 下 hadoop的安装与配置(伪分布式环境)

    一.准备 1.1创建hadoop用户 $ sudo useradd -m hadoop -s /bin/bash #创建hadoop用户,并使用/bin/bash作为shell $ sudo pass ...

  5. Java全栈程序员之02:Ubuntu下Java环境安装、配置、测试

    在上文讲完之后,我们手里的ubuntu只能算是一个上网机,什么也干不了,本篇我们将折腾它为开发机. 这里,我们这里假定你对linux体系是初级选手,所以本篇会讲的啰嗦一点,高手就出门左转吧. 1.安装 ...

  6. [转载]Ubuntu下apache的安装与配置

    原文地址:https://blog.csdn.net/gatieme/article/details/53025505 1 安装apache 在 Ubuntu 上安装 Apache,有两种方式 使用源 ...

  7. ubuntu下Tomcat7的安装和配置

    和前几个软件一样,Tomcat 同样是由JAVA开发的,所以,在安装前一定要装好JDK. 大家可以到 http://tomcat.apache.org/download-70.cgi 下载最新的Tom ...

  8. Ubuntu下Android Studio安装、配置和使用

    Ubuntu下使用Android Studio开发应用程序,首先需要安装该IDE. 情况1:Ubuntu下安装Android Studio 打开Terminal,执行下述指令: sudo apt-ad ...

  9. Ubuntu 下 Tomcat7 的安装和配置

    tomcat下载地址:http://tomcat.apache.org/download-70.cgi 声明:下面的内容和原创笔者的博文的内容差不多,不一样的只是tomcat7的安装目录不同,我按照我 ...

随机推荐

  1. [JLOI2012]时间流逝 树上高斯消元 概率期望

    题面 题意:(感觉题面写的题意是错的?)有\(n\)种能量不同的圈,设当前拥有的圈的集合为\(S\),则: 1,每天有\(p\)概率失去一个能量最小的圈.特别的,如果\(S = \varnothing ...

  2. Hibernate持久化对象修改id重新保存的办法

    Hibernate持久化对象修改id重新保存的办法——Hibernate学习记录二 2017年11月10日 20:16:48 筱光 阅读数:1122   版权声明:本文为博主原创文章,未经博主允许不得 ...

  3. opencv函数制作的秒针模型

    曾经做过,没想到这次再次写这篇代码却用了这么久的时间.这回我要记住他. #include"cv.h" #include"highgui.h" int main( ...

  4. 1.Android JUnit Runner(使用AndroidStudio)

    一.Android JUnit Runner介绍 1.Android JUnit Runner 1)是一个测试运行器,用于运行Junit3和Junit4的Android测试包 2)替换Instrume ...

  5. ACE服务端编程4:ACE跨平台之运行时初始化和关闭

    参考APG里的说法:平台差异及不兼容性的一个特别的方面,是对象的运行时初始化和程序关闭时这些对象的相应析构. ACE为了明确管理对象的清理,定义了ACE_Object_Manager类,这个类不仅涉及 ...

  6. 源码包安装 NGINX时候遇到的错误以及解决办法!

    最近跟一个公司合作,要把我们的应用安装在他们的服务器上,不过问题来了.他们为了他们自己服务器安全,不给我们root权限,只给了我们普通用户权限,所有的程序都要装在规定的路径里,限制可不少.没办法装吧~ ...

  7. 根据wsdl的url,使用axis1.4生成客户端,并且对webservice进行调用(转)

    根据wsdl的url,使用axis1.4生成客户端,并且对webservice进行调用 axis1.4下载地址 1.到www.apache.org上去下载axis-bin-1_4.zip,如要关联源代 ...

  8. Redis 安装碰到问题

    一 make 报错 1. 出现如下错误 : cd src && make all make[1]: Entering directory '/xx/xx/redis-x.x.x/src ...

  9. codeblocks快捷键(转)

    ==日常编辑== • 按住Ctrl滚滚轮,代码的字体会随你心意变大变小.• 在编辑区按住右键可拖动代码,省去拉(尤其是横向)滚动条之麻烦:相关设置:Mouse Drag Scrolling.• Ctr ...

  10. IIC总线学习

    IIC总线 IIC协议简要说明: 1.2条双向串行线,一条数据线称为SDA,一条时钟线SCL,双向半双工 2.传输的设备之间只是简单的主从关系,主机可以作为主机发送也可以作为主机接收,任何时候只能由一 ...