今天我们来学习spark,spark是一种快速,通用,可扩展的大数据分析引擎,现已成为Apache顶级项目,Spark是MapReduce的替代方案,而且兼容HDFS,Hive,可融入Hadoop的生态系统,以弥补MapReduce的不足,下面我们来介绍这样的一门语言: 一.spark安装 1.上传spark环境所需要的压缩包, 这里面请记住我们要的是预编译包(prebuild版本),而不是源码包,即解压就可以使用的压缩包 我们这个里面使用的是spark-1.6.1-bin-hadoop2.6.