1.场景 在搭建好Hadoop+Spark环境后,现准备在此环境上提交简单的任务到Spark进行计算并输出结果.搭建过程:http://www.cnblogs.com/zengxiaoliang/p/6478859.html 本人比较熟悉Java语言,现以Java的WordCount为例讲解这整个过程,要实现计算出给定文本中每个单词出现的次数. 2.环境测试 在讲解例子之前,我想先测试一下之前搭建好的环境. 2.1测试Hadoop环境 首先创建一个文件wordcount.txt 内容如下: He…