一伪分布模式
            特点:在单机上,模拟一个分布式的环境,具备Hadoop的所有功能
                    HDFS:NameNode + DataNode + SecondaryNameNode
                    Yarn:ResourceManager + NodeManager
                    
            (*)hadoop-env.sh    JAVA_HOME    /root/training/jdk1.8.0_144
 
1:进入Hadoop目录下
            cd ~/training/hadoop-2.7.3/etc/hadoop
进入之后如下只有有个
 
 
 
二:需要配置的文件目录如下:
首先进行配置  (*)hdfs-site.xml
            
                    <!--配置数据块的冗余度,默认是3-->
                    <!--原则冗余度跟数据节点个数保持一致,最大不要超过3-->
                    <property>    
                        <name>dfs.replication</name>
                        <value>1</value>
                    </property>
 
                    <!--是否开启HDFS的权限检查,默认是true-->
                    <!--使用默认值,后面会改为false-->
                    <!--
                    <property>    
                        <name>dfs.permissions</name>
                        <value>false</value>
                    </property>                
                    -->      
              
(1)将如上代码放入到  hdfs-site.xml中的  
        进行命令 进入到hdfs-site.xml文件中  vi hdfs-site.xml  
并将上面的配置信息放入<configuration> </configuration>中,保存并退出。如下:
 
 
 
(2)进行配置   (*)core-site.xml
            
                    <!--配置HDFS主节点的地址,就是NameNode的地址-->
                    <!--9000是RPC通信的端口-->
                    <property>    
                        <name>fs.defaultFS</name>
                        <value>hdfs://bigdata111:9000</value>
                    </property>    
 
                    <!--HDFS数据块和元信息保存在操作系统的目录位置-->
                    <!--默认是Linux的tmp目录,一定要修改-->
                    <property>    
                        <name>hadoop.tmp.dir</name>
                        <value>/root/training/hadoop-2.7.3/tmp</value>
                    </property>
 
首先创建一个tmp目录在 /root/training/hadoop-2.7.3 下。
 
             (因为 HDFS数据块和元信息保存在操作系统的目录位置。。-默认是Linux的tmp目录,一定要修改。默认的tmp目录特点是一开机这里面的所有文件都会被删除了的)
 
返回到cd ../etc/hadoop/。进行命令  vi core-site.xml。然后将以上的配置信息加入到配置文件中的<configuration> </configuration>中,保存并退出
      如下:
 
 
 
(3)进行配置(*)mapred-site.xml(默认没有这个文件)
   而默认是mapred-site.xml.template。
 
 <!--MR程序运行容器或者框架-->
                    <property>    
                        <name>mapreduce.framework.name</name>
                        <value>yarn</value>
                    </property>        
*********************************************************************8
 
这里我们将这个文件改为mapred-site.xml
    命令: mv mapred-site.xml.template mapred-site.xml
 
 
vi mapred-site.xml
            将以上配置信息写入该配置文件中。保存并退出
 
                   
 
(4)进行配置(*)yarn-site.xml
 
                    <!--配置Yarn主节点的位置-->
                    <property>    
                        <name>yarn.resourcemanager.hostname</name>
                        <value>bigdata111</value>
                    </property>            
 
                    <!--NodeManager执行MR任务的方式是Shuffle洗牌-->
                    <property>    
                        <name>yarn.nodemanager.aux-services</name>
                        <value>mapreduce_shuffle</value>
                    </property>    
                    
进入该配置文件。
        vi yarn-site.xml
并将如上的配置信息放入到里面。保存并退出
 
 
(5)将如上配置信息配置完成后并没结束。还要 对HDFS的NameNode进行格式化  -----> 目录:/root/training/hadoop-2.7.3/tmp
                    举例:软盘,需要格式化
                    
                    命令:hdfs namenode -format
                    日志:Storage directory /root/training/hadoop-2.7.3/tmp/dfs/name has been successfully formatted.  如果出现该日志则表明格式化成功
 
 
三:欧克,以上伪分布就已经完全部署上了。看看我们的成果吧!!
首先来启动一下。直接启动所有  start-all.sh
        
            (*)启动:
                    HDFS:start-dfs.sh
                    Yarn: start-yarn.sh
                    统一的:start-all.sh
  
这里由于没有设置免密码。启动的时候要输入4次密码。。哦!对了,在启动的过程中会提示是否继续。记得按yes哦!!!
 
 
 
输入jps查看进程:
    如果出现入下信息则表示启动成功!!
还可以进行网页端查看  。在浏览器中输入http://192.168.40.111:8088/cluster/apps    hdfs端口
                                                                http://192.168.40.111:50070/dfshealth.html#tab-datanode   yarn端口
      进行查看
 Web Console访问:hdfs: 端口: 50070
                                     yarn: 端口:8088
 
 
 
 

Linux中伪分布的搭建的更多相关文章

  1. 通过win下的eclipse连接虚拟机中伪分布的hadoop进行调试

    VMware虚拟机配置Ubuntu桥接方式(Bridged)使虚拟机和宿主机能互相ping通, 通过win下的eclipse连接虚拟机中伪分布的hadoop进行调试 1.设置Bridged上网方式 V ...

  2. Hadoop.2.x_伪分布环境搭建

    一. 基本环境搭建 1. 设置主机名.静态IP/DNS.主机映射.windows主机映射(方便ssh访问与IP修改)等 设置主机名: vi /etc/sysconfig/network # 重启系统生 ...

  3. Hadoop之伪分布环境搭建

    搭建伪分布环境 上传hadoop2.7.0编译后的包并解压到/zzy目录下 mkdir /zzy 解压 tar -zxvf hadoop.2.7.0.tar.gz -C /zzy     配置hado ...

  4. Hadoop2.6.0伪分布环境搭建

    用到的软件: 一.安装jdk: 1.要安装的jdk,我把它拷在了共享文件夹里面.   (用优盘拷也可以) 2.我把jdk拷在了用户文件夹下面. (其他地方也可以,不过路径要相应改变) 3.执行复制安装 ...

  5. Linux中samba服务器的搭建

    使用的vmware12虚拟机安装的centos6.8和物理机上的windows10,实现在windows10 上访问CentOs上的samba服务. 一.先查看系统中是否安装有samba服务相关的软件 ...

  6. Linux 中NFS服务器的搭建

    serve端IP:192.168.2.128 客户端IP:192.168.2.131 server端配置: 1.安装nfs,rpcbind,可以参考Linux 中yum的配置来安装: yum inst ...

  7. hadoop-2.7.1伪分布环境搭建

    1.准备Linux环境  1.0 点击VMware快捷方式,右键打开文件所在位置 -> 双击vmnetcfg.exe -> VMnet1 host-only ->修改subnet i ...

  8. hbase 单机+伪分布环境搭建学习-1

    1.单机模式: (1)编辑hbase-env.sh user@EBJ1023.local:/usr/local/flume_kafka_stom/hbase_1.1.2> vim conf/hb ...

  9. Linux中Zabbix4.0的搭建

    Zabbix简介 Zabbix是一个高度集成的企业级开源网络监控解决方案,与Cacti.nagios类似,提供分布式监控以及集中的web管理界面.zabbix具备常见商业监控软件所具备的功能,例如主机 ...

随机推荐

  1. GWAS后续分析:LocusZoom图的绘制

    LocusZoom图几乎是GWAS文章的必备图形之一,其主要作用是可以快速可视化GWAS找出来的信号在基因组的具体信息:比如周围有没有高度连锁的位点,高度连锁的位点是否也显著. 下面是locuszoo ...

  2. 大数据-hadoop生态之-HDFS

    一.HDFS初识 hdfs的概念: HDFS,它是一个文件系统,用于存储文件,通过目录树定位文件,其次,他是分布式的,由很多服务器联合起来 实现功能,集群中的服务器各有各自的角色 HDFS设计适合一次 ...

  3. python模拟页面调度LRU算法

    所谓LRU算法,是指在发生缺页并且没有空闲主存块时,把最近最少使用的页面换出主存块,腾出地方来调入新页面. 问题描述:一进程获得n个主存块的使用权,对于给定的进程访问页面次序,问当采用LRU算法时,输 ...

  4. HDU 2717(* bfs)

    题意是在一个数轴上,每次可以一步到达当前位置数值的 2 倍的位置或者数值 +1 或数值 -1 的位置,给定 n 和 k,问从数值为 n 的位置最少多少步可以到达数值为 k 的位置. 用广搜的方法,把已 ...

  5. python放弃篇(Django/爬虫)

    第一篇:Django系列 第二篇:爬虫系列 待续……

  6. Win10+Ubuntu18.04双系统安装

    Win10+Ubuntu18.04 亲测UEFI启动模式双硬盘+双系统成功安装经验 https://blog.csdn.net/xrinosvip/article/details/80428133 分 ...

  7. Python——built-in module Help: math

    Help on built-in module math: NAME math DESCRIPTION This module is always available. It provides acc ...

  8. 我常用的sublime快捷键整理

    由于很多人用sublime作为编辑器,我想我平时学习的时候也可以用sublime写demo,顺便熟悉一下sublime的使用方法.慢慢发现sublime中快捷键能节省很多时间,很方便,但是同时快捷键很 ...

  9. 通用RSA加密 - PHP+Java+Javascript加密解密

    php端生成 公钥私钥 1.openssl genrsa -out rsa_private_key.pem 1024    私钥 2.openssl rsa -in rsa_private_key.p ...

  10. spring security 学习笔记

    官方文档