[大牛翻译系列]Hadoop 翻译文章索引
| 原书章节 | 原书章节题目 | 翻译文章序号 | 翻译文章题目 | 链接 |
| 4.1 | Joining | Hadoop(1) | MapReduce 连接:重分区连接(Repartition join) | http://www.cnblogs.com/datacloud/p/3578509.html |
| 4.1.1 | Repartition join | Hadoop(1) | MapReduce 连接:重分区连接(Repartition join) | http://www.cnblogs.com/datacloud/p/3578509.html |
| 4.1.2 | Replicated joins | Hadoop(2) | MapReduce 连接:复制连接(Replication join) | http://www.cnblogs.com/datacloud/p/3579333.html |
| 4.1.3 | Semi-joins | Hadoop(3) | MapReduce 连接:半连接(Semi-join) | http://www.cnblogs.com/datacloud/p/3579975.html |
| 4.1.4 | Picking the best join strategy for your data | Hadoop(4) | MapReduce 连接:选择最佳连接策略 | http://www.cnblogs.com/datacloud/p/3582113.html |
| 4.2 | Sorting | Hadoop(5) | MapReduce 排序:次排序(Secondary sort) | http://www.cnblogs.com/datacloud/p/3584640.html |
| 4.2.1 | Secondary sort | Hadoop(5) | MapReduce 排序:次排序(Secondary sort) | http://www.cnblogs.com/datacloud/p/3584640.html |
| 4.2.2 | Total order sorting | Hadoop(6) | MapReduce 排序:总排序(Total order sorting) | http://www.cnblogs.com/datacloud/p/3586761.html |
| 4.3 | Sampling | Hadoop(7) | MapReduce:抽样(Sampling) | http://www.cnblogs.com/datacloud/p/3588120.html |
| 6.1 | Measuring MapReduce and your environment | Hadoop(8) | MapReduce 性能调优:性能测量(Measuring) | http://www.cnblogs.com/datacloud/p/3589875.html |
| 6.2 | Determining the cause of your performance woes | Hadoop(9) | MapReduce 性能调优:理解性能瓶颈,诊断map性能瓶颈 | http://www.cnblogs.com/datacloud/p/3591981.html |
| 6.2.1 | Understanding what can impact MapReduce job performance | Hadoop(9) | MapReduce 性能调优:理解性能瓶颈,诊断map性能瓶颈 | http://www.cnblogs.com/datacloud/p/3591981.html |
| 6.2.2 | Map woes | Hadoop(9) | MapReduce 性能调优:理解性能瓶颈,诊断map性能瓶颈 | http://www.cnblogs.com/datacloud/p/3591981.html |
| 6.2.3 | Reducer woes | Hadoop(10) | MapReduce 性能调优:诊断reduce性能瓶颈 | http://www.cnblogs.com/datacloud/p/3595682.html |
| 6.2.4 | General task woes | Hadoop(11) | MapReduce 性能调优:诊断一般性能瓶颈 | http://www.cnblogs.com/datacloud/p/3596294.html |
| 6.2.5 | Hardware woes | Hadoop(12) | MapReduce 性能调优:诊断硬件性能瓶颈 | http://www.cnblogs.com/datacloud/p/3597909.html |
| 6.4.3 | Optimizing the shuffle and sort phase | Hadoop(13) | MapReduce 性能调优:优化洗牌(shuffle)和排序阶段 | http://www.cnblogs.com/datacloud/p/3599920.html |
| 6.4.4 | Skew mitigation | Hadoop(14) | MapReduce 性能调优:减小数据倾斜的性能损失 | http://www.cnblogs.com/datacloud/p/3601624.html |
| 6.4.5 | Optimizing user space Java in MapReduce | Hadoop(15) | MapReduce 性能调优:优化MapReduce的用户JAVA代码 | http://www.cnblogs.com/datacloud/p/3603191.html |
| 6.4.6 | Data serialization | Hadoop(16) | MapReduce 性能调优:优化数据序列化 | http://www.cnblogs.com/datacloud/p/3608591.html |
| 6.5 | Chapter summary | Hadoop(16) | MapReduce 性能调优:优化数据序列化 | http://www.cnblogs.com/datacloud/p/3608591.html |
| 5.1 | Working with small files | Hadoop(17) | MapReduce 文件处理:小文件 | http://www.cnblogs.com/datacloud/p/3611459.html |
| 5.2 | Efficient storage with compression(tech 25, 26) | Hadoop(19) | MapReduce 文件处理:基于压缩的高效存储(一) | http://www.cnblogs.com/datacloud/p/3612817.html |
| 5.2 | Efficient storage with compression(tech 27) | Hadoop(19) | MapReduce 文件处理:基于压缩的高效存储(一) | http://www.cnblogs.com/datacloud/p/3616544.html |
| Appendix A.10 | LZOP | Hadoop(20) | 附录A.10 压缩格式LZOP编译安装配置 | http://www.cnblogs.com/datacloud/p/3617586.html |
| Appendix D.1 | An optimized repartition join framework | Hadoop(21) | 附录D.1 优化后的重分区框架 | http://www.cnblogs.com/datacloud/p/3617079.html |
| Appendix D.2 | A replicated join framework | Hadoop(22) | 附录D.2 复制连接框架 | http://www.cnblogs.com/datacloud/p/3617078.html |
[大牛翻译系列]Hadoop 翻译文章索引的更多相关文章
- [大牛翻译系列]Hadoop(19)MapReduce 文件处理:基于压缩的高效存储(二)
5.2 基于压缩的高效存储(续) (仅包括技术27) 技术27 在MapReduce,Hive和Pig中使用可分块的LZOP 如果一个文本文件即使经过压缩后仍然比HDFS的块的大小要大,就需要考虑选择 ...
- [大牛翻译系列]Hadoop(18)MapReduce 文件处理:基于压缩的高效存储(一)
5.2 基于压缩的高效存储 (仅包括技术25,和技术26) 数据压缩可以减小数据的大小,节约空间,提高数据传输的效率.在处理文件中,压缩很重要.在处理Hadoop的文件时,更是如此.为了让Hadoop ...
- [大牛翻译系列]Hadoop(20)附录A.10 压缩格式LZOP编译安装配置
附录A.10 LZOP LZOP是一种压缩解码器,在MapReduce中可以支持可分块的压缩.第5章中有一节介绍了如何应用LZOP.在这一节中,将介绍如何编译LZOP,在集群做相应配置. A.10.1 ...
- [大牛翻译系列]Hadoop(9)MapReduce 性能调优:理解性能瓶颈,诊断map性能瓶颈
6.2 诊断性能瓶颈 有的时候作业的执行时间会长得惊人.想靠猜也是很难猜对问题在哪.这一章中将介绍如何界定问题,找到根源.涉及的工具中有的是Hadoop自带的,有的是本书提供的. 系统监控和Hadoo ...
- [大牛翻译系列]Hadoop系列性能部分完结
Hadoop系列性能部分完结.其它的部分发布时间待定. Hadoop系列将不再一日一篇,开始不定期发布.
- [大牛翻译系列]Hadoop(6)MapReduce 排序:总排序(Total order sorting)
4.2.2 总排序(Total order sorting) 有的时候需要将作业的的所有输出进行总排序,使各个输出之间的结果是有序的.有以下实例: 如果要得到某个网站中最受欢迎的网址(URL),就需要 ...
- [大牛翻译系列]Hadoop(5)MapReduce 排序:次排序(Secondary sort)
4.2 排序(SORT) 在MapReduce中,排序的目的有两个: MapReduce可以通过排序将Map输出的键分组.然后每组键调用一次reduce. 在某些需要排序的特定场景中,用户可以将作业( ...
- [大牛翻译系列]Hadoop(22)附录D.2 复制连接框架
附录D.2 复制连接框架 复制连接是map端连接,得名于它的具体实现:连接中最小的数据集将会被复制到所有的map主机节点.复制连接的实现非常直接明了.更具体的内容可以参考Chunk Lam的<H ...
- [大牛翻译系列]Hadoop(21)附录D.1 优化后的重分区框架
附录D.1 优化后的重分区框架 Hadoop社区连接包需要将每个键的所有值都读取到内存中.如何才能在reduce端的连接减少内存开销呢?本文提供的优化中,只需要缓存较小的数据集,然后在连接中遍历较大数 ...
随机推荐
- C#属性(Attribute)用法实例解析
属性(Attribute)是C#程序设计中非常重要的一个技术,应用范围广泛,用法灵活多变.本文就以实例形式分析了C#中属性的应用.具体入戏: 一.运用范围 程序集,模块,类型(类,结构,枚举,接口,委 ...
- Java_Web使用简单的批处理操作
之前进行Web开发的时候使用的是myeclipse,但只用过的人都知道,由于其插件太多,而且有很多插件的功能根本就接触不到.所以导致一旦工程稍微大一点就会很卡,虽然之前也对其进行优化过,但还是觉得不太 ...
- [Java] SSH框架笔记_框架整合示例(一)
本文描述的是框架SSH集成的示例,由于在这个过程中有一些小的细节容易被遗忘,特别撰写了一篇小的博文来记录这个过程,希望对自己以及后来者能够起到积极意义. 本文中使用的框架和版本号为: struts-2 ...
- 日期加减js,天数组增加,日期自动修改
最近在弄火车票的项目,因为火车票选日期最大范围是20天,所要要控制在当前时间的20天内的一个日期 开始在网上找了一个直接修改Date prototype 后来领导说这样不太好,所以只能换个别的方法写 ...
- DataContractJsonSerializer和JavaScriptSerializer内部实现差异
定义一个下面这样的类,此类有Serializable属性,并且有一个属性的定义没有使用自动属性来实现. [Serializable] public class Users { public int U ...
- axure rp pro 6.5 注册码
发现一可用的注册码: Name:BEAN Serial:MZlb4FJwOVw+j04A4pX8S5genhcCOo1adsaH/ZHOukDY7OyPJcCKUHlwUEfU0Osr (已验证可用) ...
- Oracle基础 TO_CHAR函数参考(转)
Postgres 格式化函数提供一套有效的工具用于把各种数据类型(日期/时间,int,float,numeric)转换成格式化的字符串以及反过来从格式化的字符串转换成原始的数据类型. 注意:所有格式化 ...
- .NET强制进行即时垃圾回收
大家知道,.NET控制系统垃圾回收(一种自动回收未使用内存的服务)是自动的. 可有时候需要手动强制进行即时垃圾回收. 代码如下: GC.Collect();
- 使用aop记录数据库操作的执行时间
在项目中,我们往往需要记录数据库操作的时间,根据操作时间的不同,分别记录不同等级的日志. 首先我们可以写一个类实现MethodInterceptor接口: import org.aopalliance ...
- highchairts柱状图显示数值并且带单位
$(target).highcharts({ chart: { type: 'bar' }, colors: [ "#1ab394" ], title: { text: title ...