在安装好hadoop伪分布式后,开始搭建eclipse的hadoop开发环境

我的版本信息如下:

Ubuntu 版本 12.10

Hadoop版本 1.2.1

Java版本  1.6.0_31(命令java -version)

于2014年8月1日安装成功

1.安装Eclipse

调用我写的这篇博客 点击打开链接

2.复制eclipse_hadoop插件

在网上下载hadoop-1.2.1-eclipse-plugin.jar插件(插件版本一定要与hadoop的版本匹配,否则无法成功启动)后复制到eclipse/plugins目录下,重启eclipse

3.安装成功的表现

第一在open perspective >other里

有mapreduce

第二在 windows -> preferences里面会多一个hadoop
map/reduce的选项,

4.在终端(terminal)启动hadoop

先切换用户

naomi@ubuntu:~$ su hadoop

输入密码

Password:

转到hadoop目录下

hadoop@ubuntu:/home/naomi$ cd /usr/local/hadoop

启动所有东东

hadoop@ubuntu:/usr/local/hadoop$bin/start-all.sh

这一步不做就无法连接到hadoop

5.配置参数

点击这个蓝大象就会new hadoop location

可以发现很多都是默认填好的,不需要去改,更不需要去查安装时的配置文件,在这个设置页面中,你只需要填两项

1.location name 随便取名字

2.确认user name一定是hadoop(安装hadoop时的用户),如果不是hadoop,而是root或其他用户,必须退出以hadoop用户的身份启动eclipse(若此时启动eclipse出错参见我的另一篇博客 http://blog.csdn.net/unflynaomi/article/details/38340383 ),否则出错

然后选择上面的advanced parameter选项卡

改这两项即可,其他不动这两个参数在“hadoop/conf/core-site.xml”进行了配置,可以查看

点击ok

6.加载hdfs文件系统

配置完后,就在左面有了hdfs文件系统了

如果没有出来那么一定参数配置错误选择

edit hadoop location即可重新编辑

7.创建工程

File
-> New -> Project 选择“Map/Reduce Project”,然后输入项目名称,创建项目。插件会自动把hadoop根目录和lib目录下的所有jar包导入。

8.添加wordcount class

在工程上右键,new class即可,class名字为wordcount

9.运行mapreduce

源代码为:

package com.baison.action;
import org.apache.hadoop.fs.Path;
import org.apache.hadoop.io.Text;
import org.apache.hadoop.io.LongWritable;
import org.apache.hadoop.mapred.FileInputFormat;
import org.apache.hadoop.mapred.FileOutputFormat;
import org.apache.hadoop.mapred.JobClient;
import org.apache.hadoop.mapred.JobConf;
import org.apache.hadoop.mapred.lib.TokenCountMapper;
import org.apache.hadoop.mapred.lib.LongSumReducer;
public class WordCount {
public static void main(String[] args) {
JobClient client = new JobClient();
JobConf conf = new JobConf(WordCount.class);
String[] arg = { "hdfs://localhost:9000/user/hadoop/input",  
                "hdfs://localhost:9000/user/hadoop/output3" };  //这句指明了输入输出文件,input文件夹下所有文件都是输入文件,输出目录不可重复
FileInputFormat.addInputPath(conf, new Path(arg[0]));
FileOutputFormat.setOutputPath(conf, new Path(arg[1]));
conf.setOutputKeyClass(Text.class);
conf.setOutputValueClass(LongWritable.class);
conf.setMapperClass(TokenCountMapper.class);
conf.setCombinerClass(LongSumReducer.class);
conf.setReducerClass(LongSumReducer.class);
client.setConf(conf);
try {
JobClient.runJob(conf);
} catch (Exception e) {
e.printStackTrace();
}
}
}

Run As -> Run on Hadoop

部分运行过程如下

14/08/01 10:36:27 INFO mapred.JobClient:     Total committed heap usage (bytes)=3001692160

14/08/01 10:36:27 INFO mapred.JobClient:     CPU time spent (ms)=0

14/08/01 10:36:27 INFO mapred.JobClient:     Map input bytes=34768

14/08/01 10:36:27 INFO mapred.JobClient:     SPLIT_RAW_BYTES=2074

14/08/01 10:36:27 INFO mapred.JobClient:     Combine input records=3452

14/08/01 10:36:27 INFO mapred.JobClient:     Reduce input records=1654

14/08/01 10:36:27 INFO mapred.JobClient:     Reduce input groups=871

14/08/01 10:36:27 INFO mapred.JobClient:     Combine output records=1654

14/08/01 10:36:27 INFO mapred.JobClient:     Physical memory (bytes) snapshot=0

14/08/01 10:36:27 INFO mapred.JobClient:     Reduce output records=871

14/08/01 10:36:27 INFO mapred.JobClient:     Virtual memory (bytes) snapshot=0

14/08/01 10:36:27 INFO mapred.JobClient:     Map output records=3452

部分运行结果如下:(可以直接在eclipse中查看)

"". 4

"*" 10

"AS 6

"License"); 6

"alice,bob 10

"console" 2

"hadoop.root.logger". 2

"jks". 4

圆满成功

本文部分参考http://blog.csdn.net/xiaotom5/article/details/8080595#

Ubuntu环境下eclipse的hadoop开发的更多相关文章

  1. ubuntu环境下eclipse的安装以及hadoop插件的配置

    ubuntu环境下eclipse的安装以及hadoop插件的配置 一.eclipse的安装 在ubuntu桌面模式下,点击任务栏中的ubuntu软件中心,在搜索栏搜索eclipse 注意:安装过程需要 ...

  2. 在windows环境中用eclipse搭建hadoop开发环境

    1. 整体环境和设置 1.1 hadoo1.0.4集群部署在4台VMWare虚拟机中,这四台虚拟机都是通过NAT模式连接主机 集群中/etc/hosts文件配置 #本机127.0.0.1 localh ...

  3. 在ubuntu下使用Eclipse搭建Hadoop开发环境

    一.安装准备1.JDK版本:jdk1.7.0(jdk-7-linux-i586.tar.gz)2.hadoop版本:hadoop-1.1.1(hadoop-1.1.1.tar.gz)3.eclipse ...

  4. Windows下搭建Spark+Hadoop开发环境

    Windows下搭建Spark+Hadoop开发环境需要一些工具支持. 只需要确保您的电脑已装好Java环境,那么就可以开始了. 一. 准备工作 1. 下载Hadoop2.7.1版本(写Spark和H ...

  5. mac10.9下eclipse的storm开发环境搭建

    --------------------------------------- 博文作者:迦壹 博客地址:http://idoall.org/home.php?mod=space&uid=1& ...

  6. windows环境下Eclipse开发MapReduce程序遇到的四个问题及解决办法

    按此文章<Hadoop集群(第7期)_Eclipse开发环境设置>进行MapReduce开发环境搭建的过程中遇到一些问题,饶了一些弯路,解决办法记录在此: 文档目的: 记录windows环 ...

  7. ubuntu环境配置eclipse+opencv

    blockquote { direction: ltr; color: rgb(0, 0, 0) } blockquote.western { font-family: "Liberatio ...

  8. Ubuntu环境下配置Android Studio【转】

    本文转载自:https://www.jianshu.com/p/1f6295f9c955 之前学习Android开发的时候,一直跟各种教程一样,使用的是Eclipse+ADT,主要是比较方便,容易上手 ...

  9. Linux(Ubuntu)环境下使用Fiddler

    自己的开发环境是Ubuntu, 对于很多优秀的软件但是又没有Linux版本这件事,还是有点遗憾的.比如最近遇到一个问题,在分析某个网站的请求路径和cookie时就遇到了问题.本来Chome浏览器自带的 ...

随机推荐

  1. MySQL中求年龄

    时间函数: 1.curdate() --- 当前系统日期 调取: select curdate() 2.curtime() --- 当前系统时间 调取: select curtime() 3.now( ...

  2. 802.11 wireless 四

    802.11 wireless 4spread spectrum(扩频 - 基于香农定理的算法)1.窄带和扩频是发送信号的两种不同方式2.扩频技术使用更小的能量在波峰3.带宽的需要,基于发送数据的量频 ...

  3. CSS3中box-shadow的用法介绍

    一般我们通过box-shadow来设置盒阴影,但是有些属性我们一般没有用到,这篇文章将对box-shadow属性进行逐个分析.语法 CSS Code复制内容到剪贴板 E {box-shadow:ins ...

  4. bzoj 1497 最小割模型

    我们可以对于消费和盈利的点建立二分图,开始答案为所有的盈利和, 那么源向消费的点连边,流量为消费值,盈利向汇连边,流量为盈利值 中间盈利对应的消费连边,流量为INF,那么我们求这张图的最小割,用 开始 ...

  5. NYOJ-85 有趣的数 AC 分类: NYOJ 2014-01-17 21:42 240人阅读 评论(0) 收藏

    这道题目就是,找规律,小学奥数,找规律不难吧, #include<stdio.h> int sc(int x); int main(){ int n=0; int num,cs,k; sc ...

  6. 2014ACM/ICPC亚洲区广州站 北大命题

    http://acm.hdu.edu.cn/showproblem.php?pid=5131 现场赛第一个题,水题.题意:给水浒英雄排序,按照杀人数大到小,相同按照名字字典序小到大.输出.然后对每个查 ...

  7. 快速、直接的XSS漏洞检测爬虫 – XSScrapy

    XSScrapy是一个快速.直接的XSS漏洞检测爬虫,你只需要一个URL,它便可以帮助你发现XSS跨站脚本漏洞. XSScrapy的XSS漏洞攻击测试向量将会覆盖 Http头中的Referer字段 U ...

  8. JAVA敏捷开发环境搭建(转载)

    前面介绍了创业型软件公司的工作模式,这里详细介绍下如何实施,第一步是先要搭建环境,有了环境才能开展工作. 整个软件项目分为四个环境 开发本地环境.开发环境.测试环境.IDC环境.和传统C++开发不一样 ...

  9. HDOJ 1069 DP

    开启DP之路 题目:http://acm.hdu.edu.cn/showproblem.php?pid=1069 描述一下: 就是给定N(N<=20)个方体,让你放置,求放置的最高高度,限制条件 ...

  10. 数据库表 copy

    db1为原数据库,db2为要导出到的数据库,fromtable 是要导出的表名 1.方法一:登录导出到的数据库,执行create table fromtable select * from db1.f ...