安装hadoop 



1. 免秘钥 

使用hadoop用户 

ssh-keygen -t rsa 



cp id_rsa.pub authorized_keys 

cat id_rsa.pub>>authorized_keys 





使用ssh测试,如果失败: 

情况1: authorized_keys 权限过高: 

chmod 600 authorized_keys 

情况2: sshd_config 



2. 安装hadoop 

tar -zxvf hadoop-1.2.1.tar.gz 



配置hadoop 

$HADOOP_HOME/conf 

1.  修改core-site.xml 

a.配置Namenode主机及端口号 

b.配置制定临时文件夹路径,tmp文件夹要自行创建。 

<configuration> 

<property> 

<name>fs.default.name</name> 

<value>hdfs:192.168.242.132:9000</value>//这个就是namenode的地址和端口号 

</property> 



2.  修改hadoop-env.sh文件 

修改JDK的路径 



3.  修改hdfs-site.xml 

节点机数量为2,value为2 

<property> 

<name>dfs.replication</name>//文件块被存储几份//在不同的机架存储, 

<value>2</value> 

</property> 

 <property> 

<name>dfs.name.dir</name>  //存储映射文件 

<value>/opt/hadoop/name</value> 

</property> 

 <name>dfs.data.dir</name>// 存储在哪个位置 

<value>/opt/hadoop/data</value> 

</property> 

<name>dfs.tmp.dir</name>//临时文件,如果不指定,默认存在Linux默认的tmp文件目录下 

<value>/opt/hadoop/tmp</value> 

//------------------------------ 

</property> 

 <name>dfs.blocksize</name> 

<value>64MB</value> 

</property> 

  

4.  修改mapred-site.xml 

   配置job tracter监听端口监听端口 

<property> 

<name>mapred.job.tracker</name> 

<value>node01:9001</value> 

</property> 

//------------------------------------------------------或者本机 

<property> 

<name>mapred.job.tracker</name> 

<value>192.168.242.132:9001</value> 

</property> 



    

5.  修改master 和 slaves 

直接写本机的IP地址或者slaves IP地址(这个就是完全分布式) 

  

修改master文件 

添加namenode 主机名 尽量写IP地址 



//--------------------------------755---------------------- 只能用hadoop账号-------------------- 



执行权限: -drwx-rw-r-- 

- -  



755  

124 



3. 格式化 





测试文件 



虚拟机克隆不能够克隆IP地址的解决方法是 找到etc/udev/rules.d/70-persistent-net.rules找到eth1 

然后再次修改sysconfig中的network-script的 

00:0c;29:04:1f:ac 

2c:4e:55 

master 192.168.242.132 

slave1 192.168.242.134 

slave2 192.168.242.135 



 //------------------------------------------------------------------------------------------------------------------------------------------------------------- 

  

完全分布式: 



1. 机器间免秘钥 

新增slave上生成秘钥文件 

ssh-keygen -t rsa 



scp master:/home/hadoop/.ssh/authorized_keys /home/hadoop/.ssh/ 



cat id_rsa.pub>>authorized_keys 

scp /home/hadoop/.ssh/authorized_keys  master:/home/hadoop/.ssh/ 



测试ssh 免秘钥登录 



2. 修改master文件($hadoop/home/conf/master) 



制定namenode ip地址 

拷贝到所有的机器上 





2. 修改slave文件($hadoop/home/conf/slave 



制定所有的slave的 ip地址 



拷贝到所有的机器上 

3.  



防火墙关闭 权限 









ssh-rsa AAAAB3NzaC1yc2EAAAABIwAAAQEAqo52ERhoNZ1PP31YdjA9ixVQV46AOjD2HJVYnBphwHkmZjYt1amZeRz/jv+LyqdTyJ/qxbfKohg8XCxh8Iv3jAaok1Hm+Vpmv/G6xCmwgPWEuqSIM1/fK2npqMYhHANtUify3fvppMZkylHKDfb1WqOOqE4F8+kUIYb3ttv9keQCM8AfEYLw2L9dnlOTjtNjdVZUSkrl/Gb06ApabwJEzl8rV+RM73EmhADnJV2jYXhQ4uOIXs59A2Y2M1kPbtq8EtMydXAu0RMAS2ryRf89hz8fbyiLB1+Vmtu2TOJBJoFdJHRpeIU1VXiFO5sBTIk1Qtep3QBIaZ5go7V+nP7jcQ== hadoop@slave1 

ssh-rsa AAAAB3NzaC1yc2EAAAABIwAAAQEAw4Yvjdu0kqddArSUZqiFvK6OXpYMfPG+Z0P4m7CvH8AM0XlB562TXj8cRO+IB73z8h0ZaDBtlvYDFCk7brccvns7I/vqbIGl3QTC9UnZ1vn+OvjViMB32pigISkvnA6CjDiWFj8kiclPIfNIoMAQXoi6tnK+WwK3VP2hFGSpFbua1H1opCplhYybzPVoLH6EhU9nhCicYhxC9fFDlJ/sYNJgFFTDzXLfw1SVFnE7NVCdoNCfYFe08YDeS/TSrCC0U6HtKw1hQx6ZgMgXfIv43REbq6IuhJSQE7kfDvExCTQ/vA5CnE/bibytQJuTrPNI69VeCPFlKJIGQhnvNJ+JkQ==  hadoop@slave2

ssh-rsa AAAAB3NzaC1yc2EAAAABIwAAAQEAooZ9CSQTg22BH6JKsczVAVojXYp77LXzHiU998zqZoY3ztHXU0uOPFz5fvEI+08v4P4S6p/QUnPwRG2FSExZ3RseooM0q2ZQTcC7MxNQ8GcWF/pwrlvF32EhEMo47hfuGnFlqJ+UAloypZKOJS/6Qvq9zXs1HLcyFytS1zremM2qtyTIdxcTxBjYEFXPn2PwzTm60I/PV/QmXUBHZYYmo/UqYpjy8hNjzR4OzVkaG5OyucoWC6DSd2yPHKWKcfv/10M5RbcSkvjwHbJf1wThzBN8mGPKuWjb63yreFROfq6hQVnWV7Q/IjU/lDvO2p0VMHqhaIaH83814gDzlrflLw== hadoop@master 





 ERROR org.apache.hadoop.hdfs.server.datanode.DataNode: java.io.IOException: Incompatible namespaceIDs  

 in /opt/hadoop/hadoop-1.2.1/data: namenode namespaceID = 152321483; datanode namespaceID = 1180969193 



x修改Version的namespaceID和 namenode namespaceID一致 

 vi /opt/hadoop/hadoop-1.2.1/data/current/VERSION 

 namespaceID = 152321483; datanode namespaceID = 1180969193 



#Mon Apr 13 12:08:43 CST 2015 

namespaceID=152321483 

storageID=DS-340743364-127.0.0.1-50010-1428876505344 

cTime=0 

storageType=DATA_NODE 

layoutVersion=-41 







每次新加入一个datanode的时候,要把该机器上的data文件夹下的文件清空  rm -rf *

版权声明:本文为博主原创文章,未经博主允许不得转载。

hadoop学习笔记411的更多相关文章

  1. Hadoop学习笔记—22.Hadoop2.x环境搭建与配置

    自从2015年花了2个多月时间把Hadoop1.x的学习教程学习了一遍,对Hadoop这个神奇的小象有了一个初步的了解,还对每次学习的内容进行了总结,也形成了我的一个博文系列<Hadoop学习笔 ...

  2. Hadoop学习笔记(7) ——高级编程

    Hadoop学习笔记(7) ——高级编程 从前面的学习中,我们了解到了MapReduce整个过程需要经过以下几个步骤: 1.输入(input):将输入数据分成一个个split,并将split进一步拆成 ...

  3. Hadoop学习笔记(6) ——重新认识Hadoop

    Hadoop学习笔记(6) ——重新认识Hadoop 之前,我们把hadoop从下载包部署到编写了helloworld,看到了结果.现是得开始稍微更深入地了解hadoop了. Hadoop包含了两大功 ...

  4. Hadoop学习笔记(2)

    Hadoop学习笔记(2) ——解读Hello World 上一章中,我们把hadoop下载.安装.运行起来,最后还执行了一个Hello world程序,看到了结果.现在我们就来解读一下这个Hello ...

  5. Hadoop学习笔记(5) ——编写HelloWorld(2)

    Hadoop学习笔记(5) ——编写HelloWorld(2) 前面我们写了一个Hadoop程序,并让它跑起来了.但想想不对啊,Hadoop不是有两块功能么,DFS和MapReduce.没错,上一节我 ...

  6. Hadoop学习笔记(3)——分布式环境搭建

    Hadoop学习笔记(3) ——分布式环境搭建 前面,我们已经在单机上把Hadoop运行起来了,但我们知道Hadoop支持分布式的,而它的优点就是在分布上突出的,所以我们得搭个环境模拟一下. 在这里, ...

  7. Hadoop学习笔记(2) ——解读Hello World

    Hadoop学习笔记(2) ——解读Hello World 上一章中,我们把hadoop下载.安装.运行起来,最后还执行了一个Hello world程序,看到了结果.现在我们就来解读一下这个Hello ...

  8. Hadoop学习笔记(1) ——菜鸟入门

    Hadoop学习笔记(1) ——菜鸟入门 Hadoop是什么?先问一下百度吧: [百度百科]一个分布式系统基础架构,由Apache基金会所开发.用户可以在不了解分布式底层细节的情况下,开发分布式程序. ...

  9. Hadoop学习笔记(两)设置单节点集群

    本文描写叙述怎样设置一个单一节点的 Hadoop 安装.以便您能够高速运行简单的操作,使用 Hadoop MapReduce 和 Hadoop 分布式文件系统 (HDFS). 參考官方文档:Hadoo ...

随机推荐

  1. HDU 5374 Tetris (2015年多校比赛第7场)

    1.题目描写叙述:点击打开链接 2.解题思路:本题要求模拟俄罗斯方块游戏.然而比赛时候写了好久还是没过. 后来补题发现原来是第四步的逻辑实现写错了... 题目中要求假设一整行能够消除,那么仍然运行该步 ...

  2. Eclipse中执行Tomcat源代码

    1. 到http://archive.apache.org/dist/tomcat/tomcat-7下载Tomcat源码,本文用到的是apache-tomcat-7.0.19-src.zip: 注意: ...

  3. EntityFramework走马观花之CRUD(中)

    如果是独立的实体对象,在底层数据库中它对应一张独立的表,那么,对它进行新建.删除和修改没有任何难度,实在不值浪费笔墨在它上头. 在现实项目中,完全独立的对象少之又少,绝大多数情况都是对象之间有着紧密的 ...

  4. String代码示例

    package lianxi; public class lianxi0112 { public static void main(String[] args) { // TODO 自动生成的方法存根 ...

  5. java中使用js函数

    JDK6已经发布很久了,很早就听过他已经支持脚本语言了,不过一直没有时间尝试,今天偷闲试了一下,感觉不错. javax.script包它是Java新增的操作脚本的工具包, 利用它我们可以对脚本语言进行 ...

  6. C# 自定义控件制作和使用实例(winform)(转)

    本例是制作一个简单的自定义控件,然后用一个简单的测试程序,对于初学者来说,本例子比较简单,只能起到抛石引玉的效果. 我也是在学习当中,今后会将自己所学的逐步写出来和大家交流共享.   第一步:新建一个 ...

  7. vs2013工程下的各个文件和文件夹的作用

    1 ipch文件夹 用来加速编译,里面存放的是precompiled headers,即预编译好了的头文件. 头文件也是需要编译的,比如需要处理#ifdef,需要替换宏以及需要include其它头文件 ...

  8. plus.os.name 无法正确执行的问题

    使用HTML5+开发App的时候, 如果碰到正确的代码却无法出现预期的执行效果, 请检查模块权限配置是否OK? 比如plus.os.name, 需要Device权限 ;

  9. BZOJ1217: [HNOI2003]消防局的设立

    BZOJ1217: [HNOI2003]消防局的设立 Description 2020年,人类在火星上建立了一个庞大的基地群,总共有n个基地. 起初为了节约材料,人类只修建了n-1条道路来连接这些基地 ...

  10. 获取原生的DOM方式,DIY脚手架,vue-cli的使用

    一 . 获取原生的DOM的方式 在js中,我们可以通过id, class 或者标签获取DOM元素,vue中也为我们提供了获取原生DOM的方法,就是给标签或者组件添加 ref 属性,通过 this.$r ...