Hadoop 中的 ArrayWritable
虽然ArrayWritable不是接口,但貌似必须要子类去extends ArrayWritable,不能直接用ArrayWriable
否则会报下面的错误?(不是很确定)
java.lang.Exception: java.lang.RuntimeException: java.lang.NoSuchMethodException: org.apache.hadoop.io.ArrayWritable.<init>()
下面是我自己实现的ArrayWritable,完全是自己摸索的网上看到的几篇感觉都不是很靠谱
这个是为了Reduce输出结果中包含一个list,我研究一个晚上的时间,才把它弄好,结果后来发现标准答案,是用StringBuffer把list中的每个元素一个一个append然后输出的……
这样真的简化了太多的代码,而且实现难度变得低了不少。看来写代码还是要多动脑子。
不过唯一的好处是研究了一下ArrayWritable的源码,同时自己实现了这个父类,也算是有所收获
import org.apache.hadoop.io.ArrayWritable;
import org.apache.hadoop.io.Text;
import org.apache.hadoop.io.WritableFactories;
/**
* 自己实现ArrayWritable类,直接用好像会出问题
* @author wmxl
*
*/
class TextArrayWritable extends ArrayWritable { //父类其实有一个private的value,可以直接用那个,具体看ArrayWritable源码
private Text[] myValue = new Text[0]; public Text[] getMyValue() { return myValue;
} public void setMyValue(Text[] myValue) {
this.myValue = myValue;
} //这两个构造方法一定要实现TextArrayWritable() 和 TextArrayWritable(String[] strings) 而且里面要写super(Text.class)
public TextArrayWritable() {
super(Text.class);
} public TextArrayWritable(String[] strings) { super(Text.class);
Text[] texts = new Text[strings.length]; for (int i = 0; i < strings.length; i++) {
texts[i] = new Text(strings[i]);
}
// set(texts); //这个是set父类的value
setMyValue(texts);
} @Override
public void readFields(DataInput in) throws IOException { //这两个方法都是copy父类的,稍作改动,看的不是很懂
myValue = new Text[in.readInt()]; // construct values
for (int i = 0; i < myValue.length; i++) {
Text value = (Text) WritableFactories.newInstance(Text.class);
value.readFields(in); // read a value
myValue[i] = value; // store it in values
}
} @Override
public void write(DataOutput out) throws IOException { //同上
out.writeInt(myValue.length); // write values
for (int i = 0; i < myValue.length; i++) {
myValue[i].write(out);
}
} /**
* 重写这个方法,让最后write文件中的结果是你想要的样子
*/
@Override
public String toString() { StringBuffer result = new StringBuffer(); for(int i =0; i < this.getMyValue().length; i++){
if(i == this.getMyValue().length -1)
result.append(this.getMyValue()[i].toString());
else
result.append(this.getMyValue()[i].toString()).append(",");
} return result.toString();
} public void add(String friend){
int len = getMyValue().length;
Text[] newValue = new Text[len + 1];
for(int i = 0; i < len + 1; i++){
if(i < len)
newValue[i] = getMyValue()[i];
else
newValue[i] = new Text(friend);
} myValue = newValue;
}
/**
* 自己写的添加元素方法
* @param friend
*/
public void add(Text friend){
int len = getMyValue().length;
Text[] newValue = new Text[len + 1];
for(int i = 0; i < len + 1; i++){
if(i < len)
newValue[i] = getMyValue()[i];
else
newValue[i] = new Text(friend);
} myValue = newValue;
}
}
参考了这篇文章:https://www.cnblogs.com/yancey/p/3946513.html
Hadoop 中的 ArrayWritable的更多相关文章
- Hadoop 中利用 mapreduce 读写 mysql 数据
Hadoop 中利用 mapreduce 读写 mysql 数据 有时候我们在项目中会遇到输入结果集很大,但是输出结果很小,比如一些 pv.uv 数据,然后为了实时查询的需求,或者一些 OLAP ...
- Hadoop中客户端和服务器端的方法调用过程
1.Java动态代理实例 Java 动态代理一个简单的demo:(用以对比Hadoop中的动态代理) Hello接口: public interface Hello { void sayHello(S ...
- [转] - hadoop中使用lzo的压缩
在hadoop中使用lzo的压缩算法可以减小数据的大小和数据的磁盘读写时间,不仅如此,lzo是基于block分块的,这样他就允许数据被分解成chunk,并行的被hadoop处理.这样的特点,就可以让l ...
- Hadoop中WritableComparable 和 comparator
1.WritableComparable 查看HadoopAPI,如图所示: WritableComparable继承自Writable和java.lang.Comparable接口,是一个Writa ...
- hadoop中常见元素的解释
secondarynamenode 图: secondarynamenode根据文件的的大小对namenode的编辑日志和镜像日志 进行合并. 光从字面上来理解,很容易让一些初学者先入为主的认为:Se ...
- Hadoop中常用的InputFormat、OutputFormat(转)
Hadoop中的Map Reduce框架依赖InputFormat提供数据,依赖OutputFormat输出数据,每一个Map Reduce程序都离不开它们.Hadoop提供了一系列InputForm ...
- hadoop中Text类 与 java中String类的区别
hadoop 中 的Text类与java中的String类感觉上用法是相似的,但两者在编码格式和访问方式上还是有些差别的,要说明这个问题,首先得了解几个概念: 字符集: 是一个系统支持的所有抽象字符的 ...
- hadoop 中对Vlong 和 Vint的压缩方法
hadoop 中对java的基本类型进行了writeable的封装,并且所有这些writeable都是继承自WritableComparable的,都是可比较的:并且,它们都有对应的get() 和 s ...
- Hadoop中两表JOIN的处理方法(转)
1. 概述 在传统数据库(如:MYSQL)中,JOIN操作是非常常见且非常耗时的.而在HADOOP中进行JOIN操作,同样常见且耗时,由于Hadoop的独特设计思想,当进行JOIN操作时,有一些特殊的 ...
随机推荐
- mysql 取消命令行继续编辑
mysql> create database mingongge defa\c#回车 置空mysql> 加一个\c cancel 编辑命令 回车
- [BZOJ1193][HNOI2006]马步距离 大范围贪心小范围爆搜
1193: [HNOI2006]马步距离 Time Limit: 10 Sec Memory Limit: 162 MBSubmit: 1988 Solved: 905[Submit][Statu ...
- 新建Maven工程
这个如果不勾选那个Create a simple project也可以,但是创建完成后还需要修改工程的packaging为pom.还有如果不勾选,就选择maven-archetype-quicksta ...
- MSSQL删除重复记录
SQL(根据自己需要改列名.表名): delete from tableA where id not in (select min(id) from tableA group by name,age)
- asp.net如何更改默认的登陆帐号/密码:16aspx/16aspx
修改数据库,在DB_16aspx文件夹下面 sql server 2005+的数据库打开.
- poj2104(划分树模板)
poj2104 题意 给出一个序列,每次查询一个区间,要求告诉这个区间排序后的第k个数. 分析 划分树模板,O(mlogn). 建树.根据排序之后的数组,对于一个区间,找到中点的数,将整个区间分为左右 ...
- 日志采集客户端 filebeat 安装部署
linux----------------1. 下载wget https://artifacts.elastic.co/downloads/beats/filebeat/filebeat-5.5.1- ...
- oracle Update a table with data from another table
UPDATE table1 t1 SET (name, desc) = (SELECT t2.name, t2.desc FROM table2 t2 WHERE t1.id = t2.id) WHE ...
- HDOJ 1300 Pearls 斜率优化dp
原题连接:http://acm.hdu.edu.cn/showproblem.php?pid=1300 题意: 题目太长了..自己看吧 题解: 看懂题目,就会发现这是个傻逼dp题,斜率优化一下就好 代 ...
- 【BZOJ4458】GTY的OJ
题面 Description 身为IOI金牌的gtyzs有自己的一个OJ,名曰GOJ.GOJ上的题目可谓是高质量而又经典,他在他的OJ里面定义了一个树形的分类目录,且两个相同级别的目录是不会重叠的.比 ...