花了一些时间, 但感觉很值得. Big Data, MapReduce, Hadoop, and Spark with Python Master Big Data Analytics and Data Wrangling with MapReduce Fundamentals using Hadoop, Spark, and Python 作者: The LazyProgrammer (https://lazyprogrammer.me)
前面安装过程待补充,安装完成hadoop安装之后,开始执行相关命令,让hadoop跑起来 使用命令启动所有服务: hadoop@ubuntu:/usr/local/gz/hadoop-$ ./sbin/start-all.sh 当然在目录hadoop-2.4.1/sbin下面会有很多启动文件: 里面会有所有服务各自启动的命令,而start-all.sh则是把所有服务一起启动,以下为.sh的内容: #!/usr/bin/env bash # Licensed to the Apache Sof