下面运行步骤除了配置文件有部分改动,其他都是参照hadoop下载解压的share/doc/index.html。

hadoop下载:http://apache.opencas.org/hadoop/common/

解压至无空格目录下即可,下面是目录结构:

下面配置windows环境:

JavaJDK

我采用的是1.8的,配置JAVA_HOME,如果默认安装,会安装在C:\Program Files\Java\jdk1.8.0_51。此目录存在空格,启动hadoop时将报错,JAVA_HOME
is incorrect ...此时需要将环境变量JAVA_HOME值修改为:C:\Progra~1\Java\jdk1.8.0_51,Program Files可以有Progra~代替。

Hadoop 环境变量:

新建HADOOP_HOME,指向hadoop解压目录,如:D:/hadoop。path环境变量中增加:%HADOOP_HOME%\bin;。

Hadoop 依赖库:

winutils相关,hadoop在windows上运行需要winutils支持和hadoop.dll等文件,下载地址:http://download.csdn.net/detail/fly_leopard/9503059

注意hadoop.dll等文件不要与hadoop冲突。为了不出现依赖性错误可以将hadoop.dll放到c:/windows/System32下一份。

hadoop环境测试

起一个cmd窗口,起到hadoop/bin下,hadoop version,显示如下:

hadoop基本文件配置:hadoop配置文件位于:hadoop/etc/hadoop下

core-site.xml / hdfs-site.xml / mapred-site.xml / yarn-site.xml

core-site.xml:

  1. <configuration>
  2. <property>
  3. <name>fs.defaultFS</name>
  4. <value>hdfs://localhost:9000</value>
  5. </property>
  6. </configuration>

hdfs-site.xml:

 

[html] view
plain
 copy

 print?

  1. <configuration>  
  2.   
  3.        <property>  
  4.   
  5.                <name>dfs.replication</name>  
  6.   
  7.                 <value>1</value>  
  8.   
  9.        </property>  
  10.   
  11.        <property>  
  12.   
  13.                 <name>dfs.namenode.name.dir</name>  
  14.   
  15.                <value>file:/hadoop/hadoop272/data/dfs/namenode</value>  
  16.   
  17.        </property>  
  18.   
  19.        <property>  
  20.   
  21.                <name>dfs.datanode.data.dir</name>  
  22.   
  23.                <value>file:/hadoop/hadoop272/data/dfs/datanode</value>  
  24.   
  25.        </property>  
  26.   
  27. </configuration>  

mapred-site.xml:

[html] view
plain
 copy

 print?

  1. <configuration>  
  2.   
  3.        <property>  
  4.   
  5.           <name>mapreduce.framework.name</name>  
  6.   
  7.           <value>yarn</value>  
  8.   
  9.        </property>  
  10.   
  11. </configuration>  
  12.   
  13. yarn-site.xml:  
  14.   
  15. <configuration>  
  16.   
  17.        <property>  
  18.   
  19.           <name>yarn.nodemanager.aux-services</name>  
  20.   
  21.           <value>mapreduce_shuffle</value>  
  22.   
  23.        </property>  
  24.   
  25.        <property>  
  26.   
  27.           <name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name>  
  28.   
  29.           <value>org.apache.hadoop.mapred.ShuffleHandler</value>  
  30.   
  31.        </property>  
  32.   
  33. </configuration>  

格式化系统文件:

hadoop/bin下执行 hdfs namenode -format

待执行完毕即可,不要重复format。

格式化完成后到hadoop/sbin下执行 start-dfs启动hadoop

访问:http://localhost:50070

(不是必须的 ) 创建目录:用于输入和输出,Linux上是/user/用户名/xx
windows上可能没具体要求,我创建也是按照liunx目录方式的。参照的api doc上面

创建完成可以通过hdfs dfs-ls 目录名称查看,也可以在浏览器中查看创建的目录或文件

input输入文件到目录:login_weibo2是我自己创建的文本文件,位于hadoop一个盘的。此处是D:/hadoop/login_weibo2

如果了解命令参数输入hdfs dfs回车查看dfs命令参数 。hdfs dfs -put回车查看put相关参数。其他命令也是这样。

查看input输入的文件内容:

运行hadoop给的examples,做个参考,运行下面命令等待执行完成。hadoop jar jar文件位置 grep 输入目录(包含被处理文件的目录)  输出目录(运行结果输出目录)

然后查看文件夹下多了些东西,就是运行结果输出目录,结果般存在part-r-xxxx里面。

在hadoop/sbin下启动start-yarn,访问http://localhost:8088可查看 资源、节点管理

Tip:
(1)自己按照这个帖子配置好了,也启动成功了,因此放到第一个,我用的版本的2.8.1,执行启动的时候不要先入为主的认为切换到bin目录,实际是切换到sbin目录!
(2)至于“winutils”和“hadoop.dll”的文件下载,文中地址失效了!可以去这个地址https://github.com/steveloughran/winutils下载,而且下载的时候不要用右键-->另存为,而是要点击“winutils.exe”后到页面中找到Download按钮下载!

Hadoop window win10 基础环境搭建(2.8.1)的更多相关文章

  1. Hadoop window win10 基础环境搭建(2.8.1)(转)

    下面运行步骤除了配置文件有部分改动,其他都是参照hadoop下载解压的share/doc/index.html. hadoop下载:http://apache.opencas.org/hadoop/c ...

  2. hadoop3.1.0 window win7 基础环境搭建

    https://blog.csdn.net/wsh596823919/article/details/80774805 hadoop3.1.0 window win7 基础环境搭建 前言:在windo ...

  3. Hadoop学习之基础环境搭建

    期望目的 基于VMware workstation 10.0 + CentOS 7 + hadoop 3.2.0,在虚拟机上搭建一套Hadoop集群环境,总共包含4个节点,其中1个master节点.3 ...

  4. 【Hadoop基础教程】1、Hadoop之服务器基础环境搭建(转)

    本blog以K-Master服务器基础环境配置为例分别演示用户配置.sudo权限配置.网路配置.关闭防火墙.安装JDK工具等.用户需参照以下步骤完成KVMSlave1~KVMSlave3服务器的基础环 ...

  5. 【Hadoop基础教程】4、Hadoop之完全分布式环境搭建

    上一篇blog我们完成了Hadoop伪分布式环境的搭建,伪分布式模式也叫单节点集群模式, NameNode.SecondaryNameNode.DataNode.JobTracker.TaskTrac ...

  6. Spark入门实战系列--2.Spark编译与部署(上)--基础环境搭建

    [注] 1.该系列文章以及使用到安装包/测试数据 可以在<倾情大奉送--Spark入门实战系列>获取: 2.Spark编译与部署将以CentOS 64位操作系统为基础,主要是考虑到实际应用 ...

  7. 【转】android 最新 NDK r8 在window下开发环境搭建 安装配置与使用 详细图文讲解,完整实际配置过程记录(原创)

    原文网址:http://www.cnblogs.com/zdz8207/archive/2012/11/27/android-ndk-install.html android 最新 NDK r8 在w ...

  8. Spark环境搭建(上)——基础环境搭建

    Spark摘说 Spark的环境搭建涉及三个部分,一是linux系统基础环境搭建,二是Hadoop集群安装,三是Spark集群安装.在这里,主要介绍Spark在Centos系统上的准备工作--linu ...

  9. android 最新 NDK r8 在window下开发环境搭建 安装配置与使用 详细图文讲解,完整实际配置过程记录(原创)

      android 最新 NDK r8 在window下开发环境搭建 安装配置与使用 详细图文讲解,完整实际配置过程记录(原创) 一直想搞NDK开发却一直给其他事情耽搁了,参考了些网上的资料今天终于把 ...

随机推荐

  1. Codeforces 96D Volleyball(最短路径)

    Petya loves volleyball very much. One day he was running late for a volleyball match. Petya hasn't b ...

  2. Python中__name__属性的妙用

    在Python中,每一个module文件都有一个built-in属性:__name__,这个__name__有如下特点: 1 如果这个module文件是被别的文件导入的,那么,该__name__属性的 ...

  3. 拷贝构造函数 & 拷贝赋值运算符

    一.拷贝构造函数 1. 形式 class A { public: // ... A(const A &); // 拷贝构造函数 }; 2. 合成拷贝构造函数 编译器总会为我们合成一个拷贝构造函 ...

  4. JS判断备忘

    快速引入jquery并显示重点内容 (function(d,j,s,t){t=d.body.appendChild(d.createElement("script"));t.onl ...

  5. Python学习之路3 - 字符串操作&字典

    本节内容: 常用的字符串处理. 格式化输出字符串. 字符串的替换. 字符串和二进制的相互转化. 字典的操作 字符串操作 常用的字符串处理 name = 'vector' print(name.capi ...

  6. java面试95题

    1.面向对象的特征有哪些方面? 答:面向对象的特征主要有以下几个方面: - 抽象:抽象是将一类对象的共同特征总结出来构造类的过程,包括数据抽象和行为抽象两方面.抽象只关注对象有哪些属性和行为,并不关注 ...

  7. anaconda安装不存在的包

    Anaconda作为一个工具包集成管理工具,下载python工具包是很方便的,直接敲: conda install package_name 1 但是有时候安装一个工具包(如skimage)的时候,在 ...

  8. html 怎么去掉网页的滚动条

    <style type="text/css"> body{ overflow:scroll; overflow-x:hidden; } </style> 这 ...

  9. php中的<?= ?>替换<?php echo ?>

    首先修改PHP.ini文件.如下: 1. 将short_open_tag = Off 改成On 开启以后可以使用PHP的短标签:<? ?> <?= $test ?>来代替 &l ...

  10. C#中的反射和扩展方法的运用

    前段时间做了一个练手的小项目,采用的是三层架构,也就是Models,IDAL,DAL,BLL 和 Web , 在DAL层中各个类中有一个方法比较常用,那就是 RowToClass ,顾名思义,也就是将 ...