1.  常见问题

  (1)hostname设置问题。vi /etc/sysconfig/network

  (2)集群/etc/hosts没有统一。

  (3)yarn slave需要单独启动。./sbin/yarn-daemon.sh start resourcemanager

  (4)namenode格式化需要逐个先启动journalnode。

  (5)kerberos主从数据同步时获取不到ticket,一般和设置了多个hosts有关。建议hosts配置和hostname只配置一个。

  (6)jsvc通过yum源安装,启动datanode会报错找不到org/apache/commons/daemon/support。改成手动编译安装后就OK了。

  

2. 测试

[root@master1 work]# hadoop jar wordcount-0.0.1-SNAPSHOT.jar com.javacodegeeks.examples.wordcount.WordCount hdfs://master1:9000/Input.txt  output.txt
17/09/04 16:53:09 WARN mapreduce.JobResourceUploader: Hadoop command-line option parsing not performed. Implement the Tool interface and execute your application with ToolRunner to remedy this.
17/09/04 16:53:10 INFO input.FileInputFormat: Total input paths to process : 1
17/09/04 16:53:11 INFO mapreduce.JobSubmitter: number of splits:1
17/09/04 16:53:11 INFO mapreduce.JobSubmitter: Submitting tokens for job: job_1504514855214_0001
17/09/04 16:53:11 INFO impl.YarnClientImpl: Submitted application application_1504514855214_0001
17/09/04 16:53:11 INFO mapreduce.Job: The url to track the job: http://master1:8088/proxy/application_1504514855214_0001/
17/09/04 16:53:11 INFO mapreduce.Job: Running job: job_1504514855214_0001
17/09/04 16:53:19 INFO mapreduce.Job: Job job_1504514855214_0001 running in uber mode : false
17/09/04 16:53:19 INFO mapreduce.Job: map 0% reduce 0%
17/09/04 16:53:26 INFO mapreduce.Job: map 100% reduce 0%
17/09/04 16:53:32 INFO mapreduce.Job: map 100% reduce 100%
17/09/04 16:53:32 INFO mapreduce.Job: Job job_1504514855214_0001 completed successfully
17/09/04 16:53:32 INFO mapreduce.Job: Counters: 49
File System Counters
FILE: Number of bytes read=676
FILE: Number of bytes written=248505
FILE: Number of read operations=0
FILE: Number of large read operations=0
FILE: Number of write operations=0
HDFS: Number of bytes read=416
HDFS: Number of bytes written=339
HDFS: Number of read operations=6
HDFS: Number of large read operations=0
HDFS: Number of write operations=2
Job Counters
Launched map tasks=1
Launched reduce tasks=1
Data-local map tasks=1
Total time spent by all maps in occupied slots (ms)=3592
Total time spent by all reduces in occupied slots (ms)=3048
Total time spent by all map tasks (ms)=3592
Total time spent by all reduce tasks (ms)=3048
Total vcore-milliseconds taken by all map tasks=3592
Total vcore-milliseconds taken by all reduce tasks=3048
Total megabyte-milliseconds taken by all map tasks=3678208
Total megabyte-milliseconds taken by all reduce tasks=3121152
Map-Reduce Framework
Map input records=4
Map output records=58
Map output bytes=554
Map output materialized bytes=676
Input split bytes=94
Combine input records=0
Combine output records=0
Reduce input groups=43
Reduce shuffle bytes=676
Reduce input records=58
Reduce output records=43
Spilled Records=116
Shuffled Maps =1
Failed Shuffles=0
Merged Map outputs=1
GC time elapsed (ms)=186
CPU time spent (ms)=1910
Physical memory (bytes) snapshot=442167296
Virtual memory (bytes) snapshot=4297965568
Total committed heap usage (bytes)=342884352
Shuffle Errors
BAD_ID=0
CONNECTION=0
IO_ERROR=0
WRONG_LENGTH=0
WRONG_MAP=0
WRONG_REDUCE=0
File Input Format Counters
Bytes Read=322
File Output Format Counters
Bytes Written=339
Job was successful

  

hadoop HA + kerberos HA集群搭建问题和测试总结的更多相关文章

  1. Hadoop HA高可用集群搭建(Hadoop+Zookeeper+HBase)

    声明:作者原创,转载注明出处. 作者:帅气陈吃苹果 一.服务器环境 主机名 IP 用户名 密码 安装目录 master188 192.168.29.188 hadoop hadoop /home/ha ...

  2. Hadoop 3.1.2(HA)+Zookeeper3.4.13+Hbase1.4.9(HA)+Hive2.3.4+Spark2.4.0(HA)高可用集群搭建

    目录 目录 1.前言 1.1.什么是 Hadoop? 1.1.1.什么是 YARN? 1.2.什么是 Zookeeper? 1.3.什么是 Hbase? 1.4.什么是 Hive 1.5.什么是 Sp ...

  3. Ubuntu 12.04下Hadoop 2.2.0 集群搭建(原创)

    现在大家可以跟我一起来实现Ubuntu 12.04下Hadoop 2.2.0 集群搭建,在这里我使用了两台服务器,一台作为master即namenode主机,另一台作为slave即datanode主机 ...

  4. Hadoop HA高可用集群搭建(2.7.2)

    1.集群规划: 主机名        IP                安装的软件                            执行的进程 drguo1  192.168.80.149 j ...

  5. Hadoop HA 高可用集群搭建

    一.首先配置集群信息 vi /etc/hosts 二.安装zookeeper 1.解压至/usr/hadoop/下 .tar.gz -C /usr/hadoop/ 2.进入/usr/hadoop/zo ...

  6. Zookeeper(四)Hadoop HA高可用集群搭建

    一.高可就集群搭建 1.集群规划 2.集群服务器准备 (1) 修改主机名(2) 修改 IP 地址(3) 添加主机名和 IP 映射(4) 同步服务器时间(5) 关闭防火墙(6) 配置免密登录(7) 安装 ...

  7. Hadoop2学习记录(1) |HA完全分布式集群搭建

    准备 系统:CentOS 6或者RedHat 6(这里用的是64位操作) 软件:JDK 1.7.hadoop-2.3.0.native64位包(可以再csdn上下载,这里不提供了) 部署规划 192. ...

  8. 高可用Hadoop平台-HBase集群搭建

    1.概述 今天补充一篇HBase集群的搭建,这个是高可用系列遗漏的一篇博客,今天抽时间补上,今天给大家介绍的主要内容目录如下所示: 基础软件的准备 HBase介绍 HBase集群搭建 单点问题验证 截 ...

  9. Hadoop初期学习和集群搭建

    留给我学习hadoop的时间不多了,要提高效率,用上以前学的东西.hadoop要注重实战,把概念和原理弄清楚,之前看过一些spark,感觉都是一些小细节,对于理解hadoop没什么帮助.多看看资料,把 ...

  10. 第3章 Hadoop 2.x分布式集群搭建

    目录 3.1 配置各节点SSH无密钥登录 1.将各节点的秘钥加入到同一个授权文件中 2.拷贝授权文件到各个节点 3.测试无秘钥登录 3.2 搭建Hadoop集群 1.上传Hadoop并解压 2.配置H ...

随机推荐

  1. Egret在Chrome浏览器中的内存占用(内存泄露)

    参考: 怎样查看Chrome的内存占用情况 JS内存泄漏排查方法(Chrome Profiles) chrome内存泄露(一).内存泄漏分析工具 chrome内存泄露(二).内存泄漏实例 目录: 一 ...

  2. 基于开源博客系统(jpress)搭建网站

    基于开源博客系统(jpress)搭建网站 JPress 使用 Java8 开发,基于流行的JFinal和Jboot框架. 目前JPress已经内置的文章和页面其实是两个模块,可以移除和新增其他模块,因 ...

  3. C语言实现单链表(带头节点)

    C语言在实现单链表存储时需要注意的几点: 1.定义结构体,typedef:用于给结构体另命名 // 定义结构体类型 typedef struct Node{ int data; struct Node ...

  4. document.compatMode介绍

    来自:http://www.cnblogs.com/fullhouse/archive/2012/01/17/2324706.html 问题描述:看到阮一峰的博客里面的代码使用到了document.c ...

  5. iOS中navigationItem修改标题的颜色

    UIColor * color = [UIColor redColor];//这里我们设置的是颜色,NSDictionary * dict = [NSDictionary dictionaryWith ...

  6. Android Activity 去掉标题栏及全屏显示

    默认生成的活动(Activity)界面中包含标题栏,并带有状态栏.有时不需要这两个控件. 1.去掉标题栏 (三种方法) a:在setContentView()方法前 添加:requestWindowF ...

  7. 唯品会的Service Mesh三年进化史 2018 年 Service Mesh 元年,被誉为是下一代微服务架构

    2018 年 Service Mesh 元年,被誉为是下一代微服务架构 https://www.sohu.com/a/225324586_465914 唯品会的Service Mesh三年进化史 - ...

  8. PHP file_get_contents和curl区别

    一.file_get_contents 1.定义 file_get_contents() 函数将指定 URL 的文件读入一个字符串并返回. 2.语法 file_get_contents(path, i ...

  9. 用rm递归递归删除子目录下所有.o后缀文件

    find . -name "*.o"  | xargs rm -f   可以通过管道命令来操作,先find出主目录 下想删除的文件,然后通过“xargs”这个构造参数列表并运行命令 ...

  10. 利用AES算法加密数据

    准备工作: 模块安装问题: 首先在python中安装Crypto这个包 但是在安装模块后在使用过程中他会报错 下面是解决方法: pip3 install pycrypto 安装会报错 https:// ...