Ubuntu下Hadoop的安装和配置
最近又需要要搭hadoop环境,所以开始学习,下面是我的笔记,仅供大家参考!
Hadoop安装:
- JDK1.6+
- 操作系统:Linux,Window和Unix也可以做Hadoop的开发,只有Linux支持生产。
- 去hadoop发布页面下载一个稳定的版本,然后解压到文件系统的某个地方:tar xzf hadoop-x.y.xz.tar.gz(本教程针对0.x和1.x,所以建议下载目前最新的稳定版本hadoop-1.2.1版本)
- 设置Java_HOME环境变量,如果没有设置过,可以在conf/hadoop-env.sh中指定:(先要将这一行的注释去掉)
| export JAVA_HOME = /usr/lib/java/jdk |
5. 创建一个指向Hadoop安装目录的环境变量是非常方便的(HADOOP_INSTALL),将Hadoop的二进制目录放到命令行路径上即可。
|
export HADOOP_INSTALL=/home/lsw/hadoop/ export PATH=$PATH:$HADOOP_INSTALL/bin |
|
注:其实这一步还是有问题的,通过在终端中调用上面的两个语句添加的环境变量是临时的,所以我们要通过其他方式。直接修改/ect/profile貌似行不通(因为该文件是只读的,应该可以人为修改成可读写吧),然后我就去找/home/下的一个.bashrc文件打开,通过名=值的方式[HADOOP_INSTALL=/home/lsw/hadoop-1.2.1]这种方式将所有的要添加的都放在文件末尾,保存。 然后貌似要重启啊,然后在终端中输入: echo $HADOOP_INSTALL输出值已经成功了 |
6. 检查hadoop的运行,终端中输入:hadoop version
|
这一步貌似也除了问题啊。直接输入会提示权限不够,但是我发现我的hadoop目录下的文件都是对lsw有权限的,然后我打开hadoop/bin/hadoop这个文件夹的属性发现还有一个授予他以可执行文件运行的权限,所以只有把这个权限也给他,才能正确运行,我估计后面好多文件都要给这种权限,应该有指令进行批量操作吧。 |
Hadoop的配置:
hadoop中的每个组建都是一个xml配置文件,核心属性在core-site.xml,hdfs的是hdfs-site.xml,mapreduce属性在mapred-site.xml,这写配置文件都在conf/目录下。
(老版本的这几个配置文件在一个hadoop_site.xml中,现已拆分)
要查看这些配置文件的一些样例,可以看share/hadoop/templates/conf/下面。
Hadoop的三种运行模式
- 本地模式:没有守护进程,可以在写MapReduce程序的时候进行测试和调试。程序运行在单一的JVM上(默认是本地模式)
- 伪分布模式:Hadoop的守护程序在本地的计算机上运行,因此是在小范围内模拟集群
- 完全分布模式:hadoop守护程序在一群机器上运行。
设置哪个模式运行hadoop,需要做两个事情:
1) 设置适当的属性(配置上面说的几个配置文件)
2) 启动Hadoop守护进程(第一个不需要)
本地模式:本地模式是默认的,不需要配置
伪分布模式:
1. 配置三个文件:(这个一定要先配置,不然后面不能启动守护进程)
|
<!--core-site.xml--> <configuration> <property> <name>fs.default.name</name> <value>hdfs://localhost</value> </property> </configuration> |
|
<!--hdfs-site.xml--> <configuration> <property> <name>dfs.replication</name> <value>1</value> </property> </configuration> |
|
<!--mapred-site.xml--> <configuration> <property> <name>mapred.job.tracker</name> <value>localhost:8021</value> </property> </configuration> |
2. SSH的配置(Secure Shell)
Hadoop无法区分伪分布模式和完全分布模式:SSH-ing只是在启动集群主机上的保护线程的时候才在每个主机上启动一个守护进程。主机是本地计算机的时候,伪分布模式 只是完全分布模式的一个特例。
我们要做的是:确保能够SSH到本地主机而且不需要输入密码去登陆。
安装SSH 比较简单,在Ubuntu下:
| sudo apt-get install ssh |
为了自动登陆,可以用空字符生成一个新的SSH密钥:
(用空字符串生成一个密钥写入到id_rsa中)
| ssh-keygen -t rsa -P '' -f ~/.ssh/id_rsa |
(将id_rsa.pub文件合并到authorized_keys中)
| cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys |
测试登陆:
| ssh localhost |
如果不需要输入密码登陆就成功。
3. HDFS文件系统格式化:
通过创建存储目录已经名称节点的用就数据结构的最初版本来创建一个空的文件系统。文件系统的大小不需要考虑,可以自动按需增加(最初不需要考虑数据节点,因为他是由名称节点管理的)
命令:
| hadoop namenode -format |
4. 开启和结束守护进程:
|
start-dfs.sh start-mapred.sh |
或者可以用(我们打开下面这个文件,发现她其实包含上面两条命令)
| start-all.sh |
第一个命令会启动三个守护进程:一个名称节点,一个二级名称节点,一个数据节点。
可以http://localhost:50030(有关jobtracker信息的页面)
或者http://localhost:50070(namenode信息页面)
结束守护进程:
|
stop-dfs.sh stop-mapred.sh |
或者只有一个
| stop-all.sh |
运行我们的测试例子:
这里我们先不要用伪分布模式,把几个配置文件里面的配置信息都删了。
然后运行命令:
| hadoop 我们的jar包 对应的类 输入文件的路径 输出路径(输出文件夹不能存在) |
例子:
| hadoop ~/workspace/jar/Hadoop-Demo.jar cn.lsw.hd.MaxTemperature ~/workspace/hadoop_demo_data/ ~/workspace/output |
然后就会执行,打开output目录,会有两个文件,一个是part-00000,一个是_SUCCESS文件。因为只有一个节点,所以只有一个part文件
过程中会打印出一些信息:
比如作业的ID :job_local_0001,,一个map任务,一个reduce任务(各自的ID )
最后有计数器(Counter),现实map的输入和输出,reduce的输入和输出。
当然,我们察看结果文件也可以通过下面的命令:
| cat [路径要全的]output/part-00000 |
完全分布模式暂时还没弄,因为我目前就一台电脑了。
Ubuntu下Hadoop的安装和配置的更多相关文章
- Linux(Ubuntu)下MySQL的安装与配置
转自:http://www.2cto.com/database/201401/273423.html 在Linux下MySQL的安装,我一直觉得挺麻烦的,因为之前安装时就是由于复杂的配置导致有点晕.今 ...
- ubuntu下的openfire安装、配置、运行
openfire服务器 Openfire 采用Java开发,开源的实时协作(RTC)服务器基于XMPP(Jabber)协议.您可以使用它轻易的构建高效率的即时通信服务器.Op ...
- Ubuntu下samba的安装和配置
samba是Linux系统上的一种文件共享协议,可以实现Windows系统访问Linux系统上的共享资源,现在介绍一下如何在Ubuntu 14.04上安装和配置samba一. 一.更新源列表 打开&q ...
- Ubuntu16.04 下 hadoop的安装与配置(伪分布式环境)
一.准备 1.1创建hadoop用户 $ sudo useradd -m hadoop -s /bin/bash #创建hadoop用户,并使用/bin/bash作为shell $ sudo pass ...
- Java全栈程序员之02:Ubuntu下Java环境安装、配置、测试
在上文讲完之后,我们手里的ubuntu只能算是一个上网机,什么也干不了,本篇我们将折腾它为开发机. 这里,我们这里假定你对linux体系是初级选手,所以本篇会讲的啰嗦一点,高手就出门左转吧. 1.安装 ...
- [转载]Ubuntu下apache的安装与配置
原文地址:https://blog.csdn.net/gatieme/article/details/53025505 1 安装apache 在 Ubuntu 上安装 Apache,有两种方式 使用源 ...
- ubuntu下Tomcat7的安装和配置
和前几个软件一样,Tomcat 同样是由JAVA开发的,所以,在安装前一定要装好JDK. 大家可以到 http://tomcat.apache.org/download-70.cgi 下载最新的Tom ...
- Ubuntu下Android Studio安装、配置和使用
Ubuntu下使用Android Studio开发应用程序,首先需要安装该IDE. 情况1:Ubuntu下安装Android Studio 打开Terminal,执行下述指令: sudo apt-ad ...
- Ubuntu 下 Tomcat7 的安装和配置
tomcat下载地址:http://tomcat.apache.org/download-70.cgi 声明:下面的内容和原创笔者的博文的内容差不多,不一样的只是tomcat7的安装目录不同,我按照我 ...
随机推荐
- Sqoop数据迁移工具
一.概述 sqoop 是 apache 旗下一款“ Hadoop 和关系数据库服务器之间传送数据”的工具. 导入数据: MySQL, Oracle 导入数据到 Hadoop 的 HDFS. HIVE. ...
- hadoop(三)HDFS基础使用
一.HDFS前言 1. 设计思想 分而治之:将大文件,大批量文件,分布式的存放于大量服务器上.以便于采取分而治之的方式对海量数据进行运算分析 2. 在大数据系统架构中的应用 ...
- 将项目通过maven install到本地仓库后,Intellij中其他调用的项目无法引用该jar
通常,我们会新建一个项目,其为其他项目添加公共的能力.其他项目可以引用其maven坐标来使用其提供的功能. 但最近做项目发现,修改了公共项目中的代码,并且使用mavan install将其jar安装到 ...
- 2017 Multi-University Training Contest - 2
HDU 6045 #pragma comment(linker, "/STACK:102400000,102400000") #include <cstdio> #in ...
- UVA-10791 数学
UVA-10791 题意: 输入n (1<=n<2^31) 求至少两个正整数使得他们的lcm等于n并且他们的和最小,输出最小和 代码: // a*b=lcm*gcd => a=lcm ...
- 网站访问日志User Agent对照表
percent useragent system user_agent_string_md5 8.9% Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleW ...
- vue 父子组件相互传递数据
例子一 <!DOCTYPE html> <html> <head> <meta charset="utf-8"> <meta ...
- [DeeplearningAI笔记]卷积神经网络2.9-2.10迁移学习与数据增强
4.2深度卷积网络 觉得有用的话,欢迎一起讨论相互学习~Follow Me 2.9迁移学习 迁移学习的基础知识已经介绍过,本篇博文将介绍提高的部分. 提高迁移学习的速度 可以将迁移学习模型冻结的部分看 ...
- Oracle用imp导入dmp 提示遇到 ORACLE 错误 12560 TNS: 协议适配器错误 解决方法
用imp命令导入dmp文件时提示以下错误: IMP-00058: 遇到 ORACLE 错误 12560 : ORA-12560: TNS: 协议适配器错误 : IMP-00000: 未成功终止导入 : ...
- ACM-ICPC2018 青岛赛区网络预赛-B- Red Black Tree
题目描述 BaoBao has just found a rooted tree with n vertices and (n-1) weighted edges in his backyard. A ...