在这里配置的是在命令行下运行spark的环境用来学习,最后结果如下,可运行简单的代码. 0.jdk.scala和spark的版本问题 有关版本如官网所示,我想要强调的是spark至今并不支持jdk11,只支持到jdk8(jdk1.8).如果版本不对,你跑普通的代码都会报类.函数不存在的错误,我所下载的版本如上图所示spark2.4.3.scala2.11.12.java1.8. 1. 安装环境 在win10 64位系统中,我已经安装好jdk.scala,并设置好了环境变量JAVA_HOME.SC…