最近在研究Spark,准确的说是pyspark,为了搭个测试环境,之前一直在云上开Linux机器来搭Hadoop,但是Spark可以Local执行,我就打算在本地搭个环境.遇到了一些问题,记录一下,也给其他朋友一个思路. pyspark在本地搭建需要 Java JDK 1.8.0 Anacoda3 spark-2.2.3-bin-hadoop2.7 hadoop-2.7.7 hadooponwindows-master(后面提供下载连接) 操作步骤: 1,安装JDK和Anaconda3 2,把h…