在Hadoop的学习与使用过程中同样如此。这里为大家分享Hadoop集群设置中经常出现的一些问题,以下为译文:

  1.Hadoop集群可以运行的3个模式?

  • 单机(本地)模式
  • 伪分布式模式
  • 全分布式模式

  2.  单机(本地)模式中的注意点?

  在单机模式(standalone)中不会存在守护进程,所有东西都运行在一个JVM上。这里同样没有DFS,使用的是本地文件系统。单机模式适用于开发过程中运行MapReduce程序,这也是最少使用的一个模式。

  3.  伪分布模式中的注意点?

  伪分布式(Pseudo)适用于开发和测试环境,在这个模式中,所有守护进程都在同一台机器上运行。

  4.  VM是否可以称为Pseudo?

  不是,两个事物,同时Pseudo只针对Hadoop。

  5.  全分布模式又有什么注意点?

  全分布模式通常被用于生产环境,这里我们使用N台主机组成一个Hadoop集群,Hadoop守护进程运行在每台主机之上。这里会存在Namenode运行的主机,Datanode运行的主机,以及task tracker运行的主机。在分布式环境下,主节点和从节点会分开。

  6.  Hadoop是否遵循UNIX模式?

  是的,在UNIX用例下,Hadoop还拥有“conf”目录。

  7.  Hadoop安装在什么目录下?

  Cloudera和Apache使用相同的目录结构,Hadoop被安装在cd/usr/lib/hadoop-0.20/。

  8.  Namenode、Job tracker和task tracker的端口号是?

  Namenode,70;Job tracker,30;Task tracker,60。

  9.  Hadoop的核心配置是什么?

  Hadoop的核心配置通过两个xml文件来完成:1,hadoop-default.xml;2,hadoop-site.xml。这些文件都使用xml格式,因此每个xml中都有一些属性,包括名称和值,但是当下这些文件都已不复存在。

  10.  那当下又该如何配置?

  Hadoop现在拥有3个配置文件:1,core-site.xml;2,hdfs-site.xml;3,mapred-site.xml。这些文件都保存在conf/子目录下。

  11.  RAM的溢出因子是?

  溢出因子(Spill factor)是临时文件中储存文件的大小,也就是Hadoop-temp目录。

  12.  fs.mapr.working.dir只是单一的目录?

  fs.mapr.working.dir只是一个目录。

  13.  hdfs-site.xml的3个主要属性?

  • dfs.name.dir决定的是元数据存储的路径以及DFS的存储方式(磁盘或是远端)
  • dfs.data.dir决定的是数据存储的路径
  • fs.checkpoint.dir用于第二Namenode

  14.  如何退出输入模式?

  退出输入的方式有:1,按ESC;2,键入:q(如果你没有输入任何当下)或者键入:wq(如果你已经输入当下),并且按下Enter。

  15.  当你输入hadoopfsck /造成“connection refused java exception’”时,系统究竟发生了什么?

  这意味着Namenode没有运行在你的VM之上。

  16.  我们使用Ubuntu及Cloudera,那么我们该去哪里下载Hadoop,或者是默认就与Ubuntu一起安装?

  这个属于Hadoop的默认配置,你必须从Cloudera或者Edureka的dropbox下载,然后在你的系统上运行。当然,你也可以自己配置,但是你需要一个Linux box,Ubuntu或者是Red Hat。在Cloudera网站或者是Edureka的Dropbox中有安装步骤。

  17.  “jps”命令的用处?

  这个命令可以检查Namenode、Datanode、Task Tracker、 Job Tracker是否正常工作。

  18.  如何重启Namenode?

  • 点击stop-all.sh,再点击start-all.sh。
  • 键入sudo hdfs(Enter),su-hdfs (Enter),/etc/init.d/ha(Enter),及/etc/init.d/hadoop-0.20-namenode start(Enter)。

  19.  Fsck的全名?

  全名是:File System Check。

  20.  如何检查Namenode是否正常运行?

  如果要检查Namenode是否正常工作,使用命令/etc/init.d/hadoop-0.20-namenode status或者就是简单的jps。

  21.  mapred.job.tracker命令的作用?

  可以让你知道哪个节点是Job Tracker。

  22.  /etc /init.d命令的作用是?

  /etc /init.d说明了守护进程(服务)的位置或状态,其实是LINUX特性,和Hadoop关系不大。

  23.  如何在浏览器中查找Namenode?

  如果你确实需要在浏览器中查找Namenode,你不再需要localhost:8021,Namenode的端口号是50070。

  24.  如何从SU转到Cloudera?

  从SU转到Cloudera只需要键入exit。

  25.  启动和关闭命令会用到哪些文件?

  Slaves及Masters。

  26.  Slaves由什么组成?

  Slaves由主机的列表组成,每台1行,用于说明数据节点。

  27.  Masters由什么组成?

  Masters同样是主机的列表组成,每台一行,用于说明第二Namenode服务器。

  28.  hadoop-env.sh是用于做什么的?

  hadoop-env.sh提供了Hadoop中. JAVA_HOME的运行环境。

  29.  Master文件是否提供了多个入口?

  是的你可以拥有多个Master文件接口。

  30.  hadoop-env.sh文件当下的位置?

  hadoop-env.sh现在位于conf。

  31.  在Hadoop_PID_DIR中,PID代表了什么?

  PID代表了“Process ID”。

  32.  /var/hadoop/pids用于做什么?

  /var/hadoop/pids用来存储PID。

  33.  hadoop-metrics.properties文件的作用是?

  hadoop-metrics.properties被用做“Reporting”,控制Hadoop报告,初始状态是“not to report”。

  34.  Hadoop需求什么样的网络?

  Hadoop核心使用Shell(SSH)来驱动从节点上的服务器进程,并在主节点和从节点之间使用password-less SSH连接。

  35.  全分布式环境下为什么需求password-less SSH?

  这主要因为集群中通信过于频繁,Job Tracker需要尽可能快的给Task Tracker发布任务。

  36.  这会导致安全问题吗?

  完全不用担心。Hadoop集群是完全隔离的,通常情况下无法从互联网进行操作。与众不同的配置,因此我们完全不需要在意这种级别的安全漏洞,比如说通过互联网侵入等等。Hadoop为机器之间的连接提供了一个相对安全的方式。

  37.  SSH工作的端口号是?

  SSH工作的端口号是NO.22,当然可以通过它来配置,22是默认的端口号。

  38.  SSH中的注意点还包括?

  SSH只是个安全的shell通信,可以把它当做NO.22上的一种协议,只需要配置一个密码就可以安全的访问。

  39.  为什么SSH本地主机需要密码?

  在SSH中使用密码主要是增加安全性,在某些情况下也根本不会设置密码通信。

  40.  如果在SSH中添加key,是否还需要设置密码?

  是的,即使在SSH中添加了key,还是需要设置密码。

  41.  假如Namenode中没有数据会怎么样?

  没有数据的Namenode就不能称之为Namenode,通常情况下,Namenode肯定会有数据。

  42.  当Job Tracker宕掉时,Namenode会发生什么?

  当Job Tracker失败时,集群仍然可以正常工作,只要Namenode没问题。

  43.  是客户端还是Namenode决定输入的分片?

  这并不是客户端决定的,在配置文件中以及决定分片细则。

  44.  是否可以自行搭建Hadoop集群?

  是的,只要对Hadoop环境足够熟悉,你完全可以这么做。

  45.  是否可以在Windows上运行Hadoop?

  你最好不要这么做,Red Hat Linux或者是Ubuntu才是Hadoop的最佳操作系统。在Hadoop安装中,Windows通常不会被使用,因为会出现各种各样的问题。因此,Windows绝对不是Hadoop的推荐系统。

转载自  http://www.admin10000.com/document/3680.html

Hadoop 学习之 FAQ的更多相关文章

  1. Hadoop学习之旅二:HDFS

    本文基于Hadoop1.X 概述 分布式文件系统主要用来解决如下几个问题: 读写大文件 加速运算 对于某些体积巨大的文件,比如其大小超过了计算机文件系统所能存放的最大限制或者是其大小甚至超过了计算机整 ...

  2. Hadoop学习笔记—22.Hadoop2.x环境搭建与配置

    自从2015年花了2个多月时间把Hadoop1.x的学习教程学习了一遍,对Hadoop这个神奇的小象有了一个初步的了解,还对每次学习的内容进行了总结,也形成了我的一个博文系列<Hadoop学习笔 ...

  3. Hadoop学习之旅三:MapReduce

    MapReduce编程模型 在Google的一篇重要的论文MapReduce: Simplified Data Processing on Large Clusters中提到,Google公司有大量的 ...

  4. [Hadoop] Hadoop学习历程 [持续更新中…]

    1. Hadoop FS Shell Hadoop之所以可以实现分布式计算,主要的原因之一是因为其背后的分布式文件系统(HDFS).所以,对于Hadoop的文件操作需要有一套全新的shell指令来完成 ...

  5. Hadoop学习笔记—2.不怕故障的海量存储:HDFS基础入门

    一.HDFS出现的背景 随着社会的进步,需要处理数据量越来越多,在一个操作系统管辖的范围存不下了,那么就分配到更多的操作系统管理的磁盘中,但是却不方便管理和维护—>因此,迫切需要一种系统来管理多 ...

  6. Hadoop学习路线图

    Hadoop家族产品,常用的项目包括Hadoop, Hive, Pig, HBase, Sqoop, Mahout, Zookeeper, Avro, Ambari, Chukwa,新增加的项目包括, ...

  7. Hadoop学习(5)-- Hadoop2

    在Hadoop1(版本<=0.22)中,由于NameNode和JobTracker存在单点中,这制约了hadoop的发展,当集群规模超过2000台时,NameNode和JobTracker已经不 ...

  8. Hadoop学习总结之五:Hadoop的运行痕迹

    Hadoop学习总结之五:Hadoop的运行痕迹   Hadoop 学习总结之一:HDFS简介 Hadoop学习总结之二:HDFS读写过程解析 Hadoop学习总结之三:Map-Reduce入门 Ha ...

  9. Hadoop学习笔记(7) ——高级编程

    Hadoop学习笔记(7) ——高级编程 从前面的学习中,我们了解到了MapReduce整个过程需要经过以下几个步骤: 1.输入(input):将输入数据分成一个个split,并将split进一步拆成 ...

随机推荐

  1. lintcode 中等题:Single number III 落单的数III

    题目 落单的数 III 给出2*n + 2个的数字,除其中两个数字之外其他每个数字均出现两次,找到这两个数字. 样例 给出 [1,2,2,3,4,4,5,3],返回 1和5 挑战 O(n)时间复杂度, ...

  2. json的数据格式(仔细查看)

    1.json对象就是jsonObject,jsonobject里可以放入很多键值对,并以逗号为分隔符. jsonObject里还可以嵌套JsonObject对象,或者数组信息作为value,数组作为k ...

  3. mysql外键详解

    1.1.MySQL中“键”和“索引”的定义相同,所以外键和主键一样也是索引的一种.不同的是MySQL会自动为所有表的主键进行索引,但是外键字段必须由用户进行明确的索引.用于外键关系的字段必须在所有的参 ...

  4. 修改linux终端命令行颜色

    进入修改:vim /root/.bashrc 1.PS1 要修改linux终端命令行颜色,我们需要用到PS1,PS1是Linux终端用户的一个环境变量,用来说明命令行提示符的设置.在终端输入命令:#s ...

  5. Tomcat的SessionID引起的Session Fixation和Session Hijacking问题

    上一篇说到<Spring MVC防御CSRF.XSS和SQL注入攻击>,今天说说SessionID带来的漏洞攻击问题.首先,什么是Session Fixation攻击和Session Hi ...

  6. 关于引用mshtml的问题

    今天看了个验证码识别的代码,其中引用到了mshtml.dll,找了半天原来就是microsoft.mshtml.dll.查这个dll的时候还发现了好几篇关于这个dll添加问题的文章.顺便看了下,原来这 ...

  7. bzoj1876: [SDOI2009]SuperGCD

    更相减损数. 上手就debug了3个小时,直接给我看哭了. 3个函数都写错了是什么感受? 乘2函数要从前往后乘,这样后面的数乘2进位以后不会干扰前面的数. 除2函数要从后往前除,这样前面的数借来的位不 ...

  8. iOS开发:Swift多线程NSOperation的使用

    介绍: NSOperation是基于GCD实现,封装了一些更为简单实用的功能,因为GCD的线程生命周期是自动管理,所以NSOperation也是自动管理.NSOperation配合NSOperatio ...

  9. ubuntu下安装使用vmware、kvm、xen

    一. 概念介绍: (1)全虚拟化(Full Virtulization) 简介:主要是在客户操作系统和硬件之间捕捉和处理那些对虚拟化敏感的特权指令,使客户操作系统无需修改就能运行, 速度会根据不同的实 ...

  10. MyEclipse的快捷使用(含关联源码和Doc的方式)

    删除行代码 :在Eclipse中将光标移至待删除的行上,然后按Ctrl+d 组合键 快速导入包 :在Eclipse中将光标移至相应的类上面,按Ctrl+Shift+M 组合键 批量行注释 :Ctrl+ ...