先丢点问题小结到这里,免得忘记,有空再弄个详细教程玩,网上的教程要不就是旧版的,要不就是没说到点子上,随便搞搞也能碰上结果是对的时候,但是知其然而不知其所以然,没意思啊.解决问题的方法有很多种,总得找到比较合适的方法才行的. 1.服务器禁用ipV6配置. 2.Could not locate executable null\bin\winutils.exe in the Hadoop binaries 首先,有个exe,要去下载.其次,注意到提示的路径前面的null,路径没有...系统变量设置了…
1.spark执行./start-all.sh报"WARN Utils: Service 'sparkWorker' could not bind on port 0. Attempting port 1." 解决办法:在spark-env.sh中加入"export SPARK_LOCAL_IP=127.0.0.1"这一条 2.Hadoop2.7启动报"Error: JAVA_HOME is not set and could not be found&q…
看了下MapReduce的例子.再看了下Mapper和Reducer源码,理清了参数的意义,就o了. public class Mapper<KEYIN, VALUEIN, KEYOUT, VALUEOUT> public class Reducer<KEYIN,VALUEIN,KEYOUT,VALUEOUT> Map是打散过程,把输入的数据,拆分成若干的键值对.Reduce是重组的,根据前面的键值对,重组数据. 自己写Map/Reduce的话,理解了如何拆分数据.组装数据,理解了…