一  使用IDEA开发Spark程序

1、打开IDEA的官网地址,地址如下:http://www.jetbrains.com/idea/

2、点击DOWNLOAD,按照自己的需求下载安装,我们用免费版即可。

3、双击ideaIU-15.0.2.exe安装包,点击Next。

4、选择安装路径,点击Next。

5、可以选择是否创建桌面快捷方式,然后点击Next。

6、点击Install。

7、安装过程

8、点击Finish,安装成功

9、双击IntelliJ IDEA 15.0.2的图标,打开IntelliJ IDEA。

10、可以导入自己的设置,没有就选择下面的即可,然后点击OK。

11、选择自己喜欢的风格

(1) 风格1

(2) 风格2

12、选择完风格后,点击Next Default plugins

13、点击Next Featured plugins

14、点击Scala Custom Languages 下面的Install

15、安装过程

16、显示Installed就代表安装成功了,然后点击Start using IntelliJ IDEA。

17、点击Create New Project,创建新工程。

18、选择Scala,点击Next。

19、填写Project name和Project location。

20、设置Project SDK,点击New。

21、点击New打开的小窗口里点击JDK。

22、选择安装JDK的路径,点击OK

23、Project SDK会变成如下面图所示,是你安装的JDK版本

24、设置Scala SDK,点击Create。

25、选择这台机器安装的2.10.x版本,然后点击OK。

26、然后就变成如图所示,然后点击Finish。

27、出现这个提示,直接点击OK。

28、出现这个窗口,把Show Tips on Startup勾掉,点击Close即可。

29、项目创建成功以后的目录如下:

30、下载spark-1.6.0-bin-hadoop2.6.tgz,解压spark-1.6.0-bin-hadoop2.6.tgz,解压以后目录如下:

31、添加Spark的jar依赖,File-> Project Structure -> Libraries,点击号,选择Java。

32、进入到解压以后的spark-1.6.0-bin-hadoop2.6的lib目录下,选择spark-assembly-1.6.0-hadoop2.6.0.jar,如下图所示,然后点击OK。

33、点击OK。

34、如下图所示,然后点击OK。

35、项目会变成如下图所示。

36、右击src -> New -> Package。

37、填写好包名,点击OK。

38、右击com.dt.spark -> New -> Scala Class。

39、Name填写WordCount,Kind里选择Object,点击OK。

40、WordCount里添加main方法,如下图。

41、开始编写Spark WordCount项目,创建SparkConf,设置conf的参数,设置应用程序名称,使用local模式执行,图里的第1步。

42、创建SparkContext对象,图里第2步。

43、读取本地文件,图里的第3步。

44、将每一行的字符串拆分成单个的单词,图里的第4.1步。

45、在单词拆分的基础上对每个单词实例计数为1,也就是word => (word, 1),图里4.2步。

46、每个单词实例计数为1的基础之上统计每个单词在文件中出现的总次数,图里4.3步。

47、打印计算结果,图里的第5步。

48、关闭SparkContext,图里的第6步。

49、运行开发的项目,右击WorkCount.scala文件 -> Run ‘Word Count’。

50、看见这样的结果,就代表成功了。

二  使用Scala IDE 开发Spark程序

1、打开Scala IDE for Eclipse的官网,官网地址:http://scala-ide.org/

2、点击Download IDE。

3、下载对应的版本。

4、scala-SDK-4.3.0-vfinal-2.11-win32.win32.x86_64.zip为例,解压缩。

5、双击打开eclipse.exe。

6、选择一个工作目录,然后点击OK。

7、在打开的窗口中,File -> New -> Scala Project。

8、写好Project name,点击Next。

9、点击Finish。

10、修改JRE System Library。

11、右击JRE System Library -> Build Path -> Configure Build Path...。

12、点击JRE System Library -> Edit。

13、选择Alternate JRE -> Installed JREs...。

14、点击Add...。

15、选择Standard VM,点击Next。

16、点击Directory...,选择本地文件安装JDK的安装目录,点击Finish。

17、选择刚才加入的JDK,点击OK。

18、下拉列表里选择刚才加入的JDK,点击Finish。

19、点击OK。

20、设置Scala library container。

21、项目上有右击 -> Properties。

22、打开的窗口点击Scala Compiler。

23、Use Project Settings打钩,打开Scala Installation下拉列表,选择Latest 2.10 bundle(dynamic),点击OK。

24、点击OK。

25、下载spark-1.6.0-bin-hadoop2.6.tgz,解压spark-1.6.0-bin-hadoop2.6.tgz,解压以后目录如下:

26、添加Spark的jar依赖,项目右击 -> Build Path -> Configure Build Path...。

27、点击Libraries -> Add External JARs...。

28、选择lib目录下的spark-assembly-1.6.0-hadoop2.6.0.jar文件,点击打开。

29、点击OK。

30、项目里创建包,右击src -> New -> Package。

31、填写好Name,点击Finish。

32、创建Scala Object,右击com.dt.spark -> New -> Scala Object。

33、填写好Name,点击Finish。

34、开始编写WordCount,写Title。

35、添加main方法。

36、创建SparkConf对象,图里的第1步。

37、创建SparkContext对象,图里的第2步。

38、读取本地文件,图里的第3步

39、将每一行的字符串拆分成单个的单词,图里的第4.1步。

40、在单词拆分的基础上对每个单词实例计数为1,也就是word => (word, 1),图里4.2步。

41、每个单词实例计数为1的基础之上统计每个单词在文件中出现的总次数,图里4.3步。

42、打印计算结果,图里的第5步。

43、关闭SparkContext,图里的第6步。

44、运行项目,右击WorkCount.scala文件 -> Run As -> Scala Application。

45、看见这样的结果,就代表成功了。

开发工具之Spark程序开发详解的更多相关文章

  1. 最锋利的Visual Studio Web开发工具扩展:Web Essentials详解

    原文:最锋利的Visual Studio Web开发工具扩展:Web Essentials详解 Web Essentials是目前为止见过的最好用的VS扩展工具了,具体功能请待我一一道来. 首先,从E ...

  2. 最锋利的Visual Studio Web开发工具扩展:Web Essentials详解(转)

    Web Essentials是目前为止见过的最好用的VS扩展工具了,具体功能请待我一一道来. 首先,从Extension Manager里安装:最新版本是19号发布的2.5版 然后重启你的VS开发环境 ...

  3. 最锋利的Visual Studio Web开发工具扩展:Web Essentials详解【转】

    Web Essentials是目前为止见过的最好用的VS扩展工具了,具体功能请待我一一道来. 首先,从Extension Manager里安装:最新版本是19号发布的2.5版 然后重启你的VS开发环境 ...

  4. VS2010开发程序打包详解

    VS2010开发程序打包详解 转自:http://blog.sina.com.cn/s/blog_473b385101019ufr.html 首先打开已经完成的工程,如图: 下面开始制作安装程序包. ...

  5. Hadoop:开发机运行spark程序,抛出异常:ERROR Shell: Failed to locate the winutils binary in the hadoop binary path

    问题: windows开发机运行spark程序,抛出异常:ERROR Shell: Failed to locate the winutils binary in the hadoop binary ...

  6. [ 转载 ] Java开发中的23种设计模式详解(转)

    Java开发中的23种设计模式详解(转)   设计模式(Design Patterns) ——可复用面向对象软件的基础 设计模式(Design pattern)是一套被反复使用.多数人知晓的.经过分类 ...

  7. Spark面试题(七)——Spark程序开发调优

    Spark系列面试题 Spark面试题(一) Spark面试题(二) Spark面试题(三) Spark面试题(四) Spark面试题(五)--数据倾斜调优 Spark面试题(六)--Spark资源调 ...

  8. Java基础-DButils工具类(QueryRunner)详解

    Java基础-DButils工具类(QueryRunner)详解 作者:尹正杰 版权声明:原创作品,谢绝转载!否则将追究法律责任. 如果只使用JDBC进行开发,我们会发现冗余代码过多,为了简化JDBC ...

  9. R语言服务器程序 Rserve详解

    R语言服务器程序 Rserve详解 R的极客理想系列文章,涵盖了R的思想,使用,工具,创新等的一系列要点,以我个人的学习和体验去诠释R的强大. R语言作为统计学一门语言,一直在小众领域闪耀着光芒.直到 ...

随机推荐

  1. MySQL安全策略

    0.导读 MySQL被运用于越来越多的业务中,在关键业务中对数据安全性的要求也更高,如何保证MySQL的数据安全? MySQL被运用于越来越多的业务中,在关键业务中对数据安全性的要求也更高,如何保证M ...

  2. PFX文件提取公钥私钥

    jks是JAVA的keytools证书工具支持的证书私钥格式.pfx是微软支持的私钥格式. cer是证书的公钥. 如果是你私人要备份证书的话记得一定要备份成jks或者pfx格式,否则恢复不了. 简单来 ...

  3. 搭建企业级NFS网络文件共享服务

    NFS服务简介 NFS是Network  File System(网络文件系统).主要功能是通过网络让不同的服务器之间可以共享文件或者目录.NFS客户端一般是应用服务器(比如web,负载均衡等),可以 ...

  4. kettle 启动spoon一闪而过

    Kettle是Pentaho的一个组件,主要用于数据库间的数据迁移(ETL). Kettle有三个主要组件:Spoon,Kitchen,Pan.其中Spoon是一个图形化的界面. 一.安装kettle ...

  5. JDK5的新特性之 增强for

      package cn.itcast.day19.foreach; import java.util.ArrayList; import java.util.Collection; import j ...

  6. Q矩阵输出

    程序启动时: 1.Q矩阵在InitQX中对角阵赋初值为0.25,GPS卫星数6 2.Q矩阵初值在初始化时由GetBL获得,改变Q对角阵 Q初值第0个卫星 10000000000.000 X初值第0个卫 ...

  7. Django商城项目笔记No.10用户部分-登录接口

    Django商城项目笔记No.10用户部分-登录接口 添加url路由 接下来第二步,增加返回内容: 增加结果如下: 配置:上边的方法定义了返回的内容都有哪些,那这个方法jwt还不知道,需要配置: 修改 ...

  8. 028、HTML 标签1列表、图片、表格

    内容简单看一下理解就行了. HTML 是用来描述网页的一种语言.就是用来编写网页的语言 内容:换行.分割,标签属性,编码方式设置,字体标签,特殊符号,列表.图片.表格标签############### ...

  9. python3中启动 uiautomator2viewer时报错解决办法

    事先说明:我电脑里同时了安装了 python2和python3,启动对应版本时分别带上版本号,如何设置共存请参考:python2与python3共存 打开命令窗口,启动weditor : python ...

  10. Spark项目之电商用户行为分析大数据平台之(四)离线数据采集