分布式搭建

在ubuntu下创建hadoop用户组和用户
bigdata@master:~$sudo addgroup hadoop
bigdata@master:~$sudo adduser --ingroup hadoop hadoop
给hadoop用户添加权限
bigdata@master:~$sudo gedit /etc/sudoers
在root ALL=(ALL) ALL下面添加
hadoop ALL=(root) NOPASSWD:ALL
配置ssh,配置ssh注意是在hadoop用户下进行的
hadoop@master:~$su -hadoop
hadoop@master:~$sudp apt-get update
hadoop@master:~$sudo apt-get install openssh-server
修改hostname,设置hostname=master
hadoop@master:~$sudo  vi /etc/hostname
修改自己节点的ip映射(一定要记得注释掉上方的127.0.1.1,不然会影响到后面的namenode和datanode的访问)
hadoop@master:~$sudo vi /etc/hosts
192.168.100.10 master
192.168.100.20 salves1
192.168.100.30 salves2
重启网络,互ping
ssh无密码配置
生成公钥
hadoop@master:~$ssh-keygen -t rsa -P ""
master上面首先配置本地的免密访问
hadoop@master:~$cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys
将master的公钥发到每个节点虚拟机上
hadoop@master:~$scp ~/.ssh/id_rsa. pub   hdoop@salves1:/home/hadoop/.ssh
hadoop@master:~$scp ~/.ssh/id_rsa. pub hdoop@salves2:/home/hadoop/.ssh
每个节点虚拟机再将其公钥加入授权a  
hdoop@salves1:cat /home/hadoop/.ssh/id_rsa.pub >> /home/hadoop/.ssh/authorized_keys
hdoop@salves2:cat /home/hadoop/.ssh/id_rsa.pub >> /home/hadoop/.ssh/authorized_keys
验证master能够无密码访问slave(如能正常进入slave,则配置成功,否则配置失败)
hadoop@master:~$ssh slave1
hadoop@master:~$ssh slave2
安装jdk
hadoop@master:~$vi /etc/profile
export JAVA_HOME=/opt/modules/jdk1.7.0_79
export HADOOP_HOME=/opt/modules/hadoop-2.6.0
export PATH=$JAVA_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$PATH
更新配置文件,使其生效
hadoop@master:~$source /etc/proflie
修改配置文件core-site.xml
<property>
<name>fs.defaultFS</name>
<value>hdfs://master:9000</value>
</property>
<property>
<name>hadoop.tmp.dir</name>
<value>/opt/data/tmp</value>
</property>
创建存储HDFS的临时目录
hadoop@master:~$sudo mkdir -p /opt/data/tmp--在slave上面也要创建这个目录
修改临时目录的所有者
hadoop@master:~$sudo chown -R hadoop:hadoop /opt/data/tmp
修改hdfs-site.xml文件
<property>
<name>dfs.replication</name>
<value>2</value>
</property>
修改mapred-site.xml文件
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>
配置yarn-site.xml文件
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
<property>
<name>yarn.resourcemanager.hostname</name>
<value>master</value>
</property>
编辑slaves文件
hadoop@master:~$vi /opt/modules/hadoop/etc/hadoop/slaves
添加:slave1 slave2
将master上的jdk,hadoop的安装目录发送到slave上
hadoop@master:~$scp -r /opt/modules/hadoop hadoop@slave1:/opt/modules/
hadoop@master:~$scp -r /opt/modules/hadoop hadoop@slave2:/opt/modules/
hadoop@master:~$scp -r /opt/modules/jdk1.7.0_79 hadoop@slave2:/opt/modules/
hadoop@master:~$scp -r /opt/modules/jdk1.7.0_79 hadoop@slave1:/opt/modules/
补充相关可能会出现的问题
离开安全模式
hadoop@master:~$hadoop dfsadmin -safemode leave
如果上传文件到HDFS一直失败的话一般都是防护墙的问题
hadoop@master:~$sudo ufw disable
hadoop@master:~$stop-all.sh
hadoop@master:~$start-all.sh
在slave上只需要配置/etc/profile文件的java,hadoop路径即可,配置方式和master的配置方式一样,见上。
至此就全部配置完成,接下来就是激动人心的时刻了
格式化namenode
hadoop@master:~$hadoop namenode -foramt
启动
hadoop@master:~$start-all.sh
补充:
单独启动各个节点
hadoop$:hadoop-daemon.sh start namenode
hadoop$:hadoop-daemon.sh start datenode
hadoop$:hadoop-daemon.sh start secondarynamenode
hadoop$:hadoop-daemon.sh start jobtracker
hadoop$:hadoop-daemon.sh start tasktracker
启动HDFS和mapredduce
hadoop$:start-dfs.sh start-mapreduced.sh

hadoop集群简单搭建的更多相关文章

  1. hadoop集群的搭建与配置(2)

    对解压过后的文件进行从命名 把"/usr/hadoop"读权限分配给hadoop用户(非常重要) 配置完之后我们要创建一个tmp文件供以后的使用 然后对我们的hadoop进行配置文 ...

  2. 关于hadoop集群管理系统搭建的规划说明

    Hadoop集群管理系统搭建是每个入门级新手都非常头疼的事情,因为你可能花费了很久的时间在搭建运行环境,最终却不知道什么原因无法创建成功.但对新手来说,运行环境搭建不成功的概率还蛮高的. 在之前的分享 ...

  3. Hadoop集群环境搭建步骤说明

    Hadoop集群环境搭建是很多学习hadoop学习者或者是使用者都必然要面对的一个问题,网上关于hadoop集群环境搭建的博文教程也蛮多的.对于玩hadoop的高手来说肯定没有什么问题,甚至可以说事“ ...

  4. Hadoop集群上搭建Ranger

    There are two types of people in the world. I hate both of them. Hadoop集群上搭建Ranger 在搭建Ranger工程之前,需要完 ...

  5. Hadoop集群初步搭建:

    自己整理了一下Hadoop集群简易搭建的过程,感谢尚观科技贾老师的授课和指导! 基本环境要求:能联网电脑一台:装有Centos系统的VMware虚拟机:Xmanager Enterprise 5软件. ...

  6. hadoop集群环境搭建之zookeeper集群的安装部署

    关于hadoop集群搭建有一些准备工作要做,具体请参照hadoop集群环境搭建准备工作 (我成功的按照这个步骤部署成功了,经实际验证,该方法可行) 一.安装zookeeper 1 将zookeeper ...

  7. hadoop集群环境搭建之安装配置hadoop集群

    在安装hadoop集群之前,需要先进行zookeeper的安装,请参照hadoop集群环境搭建之zookeeper集群的安装部署 1 将hadoop安装包解压到 /itcast/  (如果没有这个目录 ...

  8. hadoop集群环境搭建准备工作

    一定要注意hadoop和linux系统的位数一定要相同,就是说如果hadoop是32位的,linux系统也一定要安装32位的. 准备工作: 1 首先在VMware中建立6台虚拟机(配置默认即可).这是 ...

  9. hadoop集群的搭建

    hadoop集群的搭建 1.ubuntu 14.04更换成阿里云源 刚刚开始我选择了nat模式,所有可以连通网络,但是不能ping通,我就是想安装一下mysql,因为安装手动安装mysql太麻烦了,然 ...

随机推荐

  1. Vue项目搭建及原理三

    我每次写博客都要先在本地写一遍草稿,所以之前有些发布顺序可能会有一丢丢凌乱 哈哈哈,以后绝对改正,那下面我们就说一下创建及项目目录结构吧 三.创建项目 1.初始化Webpack p.p1 { marg ...

  2. 对维数组排序 array_multisort()的应用

    PHP允许在多维数组上执行一些比较复杂的排序--例如,首先对一个嵌套数组使用一个普通的关键字进行排序,然后再根据另一个关键字进行排序.这与使用SQL的ORDER BY语句对多个字段进行排序非常相似.为 ...

  3. CSS3 column属性

    css3 column属性的应用 1.案例源码 <!DOCTYPE html><html lang="en"><head> <meta c ...

  4. Readis For Windows安装及密码、IP限制

    一.下载与安装Readis Github下载地址:https://github.com/MicrosoftArchive/redis/tags 下载.MSI后下一步安装即可 二.验证安装 1. 在&q ...

  5. 在linux下,怎么去查看一个运行中的程序, 到底是占用了多少内存

    1. 在linux下,查看一个运行中的程序, 占用了多少内存, 一般的命令有 (1). ps aux: 其中  VSZ(或VSS)列 表示,程序占用了多少虚拟内存. RSS列 表示, 程序占用了多少物 ...

  6. python官方推荐的各阶段学习书籍

    Python学习交流群:463024091,群内每天分享干货,包括最新的python企业案例学习资料和零基础入门教程,欢迎各位小伙伴入群学习交流! 你是否曾经学期初立下一大堆学习计划,到期末却依旧过着 ...

  7. [USACO5.4]奶牛的电信Telecowmunication

    裸的最小割,拆点时要考虑清楚到底是怎么连 如果之前i->i+n,之后又x->y+n,显然出不了解 所以可以改为i+n->i 如果要输出方案 考虑每一个一个点,如果删去这个点,最小割变 ...

  8. Redis之Set

    一.Redis之Set简介 1. Set是String类型的无序集合(元素成员唯一). 2. Set是通过hash表实现的,添加.删除.查找的复杂度都是O(1). 3. 每个集合最大成员数为232-1 ...

  9. 【Spring源码分析】非懒加载的单例Bean初始化过程(下篇)

    doCreateBean方法 上文[Spring源码分析]非懒加载的单例Bean初始化过程(上篇),分析了单例的Bean初始化流程,并跟踪代码进入了主流程,看到了Bean是如何被实例化出来的.先贴一下 ...

  10. 【noip模拟】局部最小值

    TimeLimit: 1000ms               MemoryLimit: 256MB Description 有一个n行m列的整数矩阵,其中1到n×m之间的每个整数恰好出现一次.如果一 ...