1.  常见问题

  (1)hostname设置问题。vi /etc/sysconfig/network

  (2)集群/etc/hosts没有统一。

  (3)yarn slave需要单独启动。./sbin/yarn-daemon.sh start resourcemanager

  (4)namenode格式化需要逐个先启动journalnode。

  (5)kerberos主从数据同步时获取不到ticket,一般和设置了多个hosts有关。建议hosts配置和hostname只配置一个。

  (6)jsvc通过yum源安装,启动datanode会报错找不到org/apache/commons/daemon/support。改成手动编译安装后就OK了。

  

2. 测试

[root@master1 work]# hadoop jar wordcount-0.0.1-SNAPSHOT.jar com.javacodegeeks.examples.wordcount.WordCount hdfs://master1:9000/Input.txt  output.txt
17/09/04 16:53:09 WARN mapreduce.JobResourceUploader: Hadoop command-line option parsing not performed. Implement the Tool interface and execute your application with ToolRunner to remedy this.
17/09/04 16:53:10 INFO input.FileInputFormat: Total input paths to process : 1
17/09/04 16:53:11 INFO mapreduce.JobSubmitter: number of splits:1
17/09/04 16:53:11 INFO mapreduce.JobSubmitter: Submitting tokens for job: job_1504514855214_0001
17/09/04 16:53:11 INFO impl.YarnClientImpl: Submitted application application_1504514855214_0001
17/09/04 16:53:11 INFO mapreduce.Job: The url to track the job: http://master1:8088/proxy/application_1504514855214_0001/
17/09/04 16:53:11 INFO mapreduce.Job: Running job: job_1504514855214_0001
17/09/04 16:53:19 INFO mapreduce.Job: Job job_1504514855214_0001 running in uber mode : false
17/09/04 16:53:19 INFO mapreduce.Job: map 0% reduce 0%
17/09/04 16:53:26 INFO mapreduce.Job: map 100% reduce 0%
17/09/04 16:53:32 INFO mapreduce.Job: map 100% reduce 100%
17/09/04 16:53:32 INFO mapreduce.Job: Job job_1504514855214_0001 completed successfully
17/09/04 16:53:32 INFO mapreduce.Job: Counters: 49
File System Counters
FILE: Number of bytes read=676
FILE: Number of bytes written=248505
FILE: Number of read operations=0
FILE: Number of large read operations=0
FILE: Number of write operations=0
HDFS: Number of bytes read=416
HDFS: Number of bytes written=339
HDFS: Number of read operations=6
HDFS: Number of large read operations=0
HDFS: Number of write operations=2
Job Counters
Launched map tasks=1
Launched reduce tasks=1
Data-local map tasks=1
Total time spent by all maps in occupied slots (ms)=3592
Total time spent by all reduces in occupied slots (ms)=3048
Total time spent by all map tasks (ms)=3592
Total time spent by all reduce tasks (ms)=3048
Total vcore-milliseconds taken by all map tasks=3592
Total vcore-milliseconds taken by all reduce tasks=3048
Total megabyte-milliseconds taken by all map tasks=3678208
Total megabyte-milliseconds taken by all reduce tasks=3121152
Map-Reduce Framework
Map input records=4
Map output records=58
Map output bytes=554
Map output materialized bytes=676
Input split bytes=94
Combine input records=0
Combine output records=0
Reduce input groups=43
Reduce shuffle bytes=676
Reduce input records=58
Reduce output records=43
Spilled Records=116
Shuffled Maps =1
Failed Shuffles=0
Merged Map outputs=1
GC time elapsed (ms)=186
CPU time spent (ms)=1910
Physical memory (bytes) snapshot=442167296
Virtual memory (bytes) snapshot=4297965568
Total committed heap usage (bytes)=342884352
Shuffle Errors
BAD_ID=0
CONNECTION=0
IO_ERROR=0
WRONG_LENGTH=0
WRONG_MAP=0
WRONG_REDUCE=0
File Input Format Counters
Bytes Read=322
File Output Format Counters
Bytes Written=339
Job was successful

  

hadoop HA + kerberos HA集群搭建问题和测试总结的更多相关文章

  1. Hadoop HA高可用集群搭建(Hadoop+Zookeeper+HBase)

    声明:作者原创,转载注明出处. 作者:帅气陈吃苹果 一.服务器环境 主机名 IP 用户名 密码 安装目录 master188 192.168.29.188 hadoop hadoop /home/ha ...

  2. Hadoop 3.1.2(HA)+Zookeeper3.4.13+Hbase1.4.9(HA)+Hive2.3.4+Spark2.4.0(HA)高可用集群搭建

    目录 目录 1.前言 1.1.什么是 Hadoop? 1.1.1.什么是 YARN? 1.2.什么是 Zookeeper? 1.3.什么是 Hbase? 1.4.什么是 Hive 1.5.什么是 Sp ...

  3. Ubuntu 12.04下Hadoop 2.2.0 集群搭建(原创)

    现在大家可以跟我一起来实现Ubuntu 12.04下Hadoop 2.2.0 集群搭建,在这里我使用了两台服务器,一台作为master即namenode主机,另一台作为slave即datanode主机 ...

  4. Hadoop HA高可用集群搭建(2.7.2)

    1.集群规划: 主机名        IP                安装的软件                            执行的进程 drguo1  192.168.80.149 j ...

  5. Hadoop HA 高可用集群搭建

    一.首先配置集群信息 vi /etc/hosts 二.安装zookeeper 1.解压至/usr/hadoop/下 .tar.gz -C /usr/hadoop/ 2.进入/usr/hadoop/zo ...

  6. Zookeeper(四)Hadoop HA高可用集群搭建

    一.高可就集群搭建 1.集群规划 2.集群服务器准备 (1) 修改主机名(2) 修改 IP 地址(3) 添加主机名和 IP 映射(4) 同步服务器时间(5) 关闭防火墙(6) 配置免密登录(7) 安装 ...

  7. Hadoop2学习记录(1) |HA完全分布式集群搭建

    准备 系统:CentOS 6或者RedHat 6(这里用的是64位操作) 软件:JDK 1.7.hadoop-2.3.0.native64位包(可以再csdn上下载,这里不提供了) 部署规划 192. ...

  8. 高可用Hadoop平台-HBase集群搭建

    1.概述 今天补充一篇HBase集群的搭建,这个是高可用系列遗漏的一篇博客,今天抽时间补上,今天给大家介绍的主要内容目录如下所示: 基础软件的准备 HBase介绍 HBase集群搭建 单点问题验证 截 ...

  9. Hadoop初期学习和集群搭建

    留给我学习hadoop的时间不多了,要提高效率,用上以前学的东西.hadoop要注重实战,把概念和原理弄清楚,之前看过一些spark,感觉都是一些小细节,对于理解hadoop没什么帮助.多看看资料,把 ...

  10. 第3章 Hadoop 2.x分布式集群搭建

    目录 3.1 配置各节点SSH无密钥登录 1.将各节点的秘钥加入到同一个授权文件中 2.拷贝授权文件到各个节点 3.测试无秘钥登录 3.2 搭建Hadoop集群 1.上传Hadoop并解压 2.配置H ...

随机推荐

  1. hammer.js移动端手势库

    hammer.js 是一个多点触摸手势库,能够为网页加入Tap.Double Tap.Swipe.Hold.Pinch.Drag等多点触摸事件,免去自己监听底层touchstart.touchmove ...

  2. datatables如何把列设置成hidden隐藏域?

    官网:https://datatables.net/reference/option/设置: visible: false如下: <!DOCTYPE html><html>&l ...

  3. 简述泛型、用Maven创建Web项目以及在Web项目上整合SpringMVC

    表设计 Timestamp列是否取消"根据当前时间戳自动更新" 是否null及默认值选择合理不合理 外键命名规范及更新和删除时的动作是否合理   泛型 类型参数 --允许在外部指定 ...

  4. java基础之Flex弹性布局、JSP错误处理以及Log4J

    一.Flex弹性布局 1.产生的比较晚,目前在移动网页开发中可以使用,而且逐渐成为主流. 在桌面网页开发中使用的比较少(主要是桌面浏览器的兼容性问题更加严重) 2.开启方法: 在容器标签上加上 dis ...

  5. Educational Codeforces Round 25 E. Minimal Labels&&hdu1258

    这两道题都需要用到拓扑排序,所以先介绍一下什么叫做拓扑排序. 这里说一下我是怎么理解的,拓扑排序实在DAG中进行的,根据图中的有向边的方向决定大小关系,具体可以下面的题目中理解其含义 Educatio ...

  6. Threaten Model

    探测(扫描器,情报搜集)--入侵(vul,exp)--潜伏(RATS,setmft,AFSET)--横向入侵(admin cert,RATS)---信息泄漏(vpn,rats,通讯通道)--删除踪迹( ...

  7. python基础-第十三篇-13.1web框架本质

    基础与概念 众所周知,对于所有的web应用,本质上其实就是一个socket服务端,用户的浏览器其实就是一个socket客户端 web框架分两类:一类是包括socket和业务逻辑(tornado),另一 ...

  8. java基础04 Scanner的使用

    import java.util.Scanner; /** * 所有在java.lang包下面的所有类 不需要显示的引入包! * java.util.Scanner : 想获取用户的输入 必须引入相关 ...

  9. CSS冲突1 要关掉的css在项目内:【material-table】 中 checkbox 点击checkbox无法选中or取消,点击旁边才能选中or取消

    CSS优先级: !important > 行内样式 > 内嵌样式|链接外部样式(哪个在后面哪个优先级大) id选择器 > class选择器 > 元素选择器 react中好像还不 ...

  10. linux统计当前文件夹下所有文件的个数

    ls 加 R 选项表示recursive递归