yarn application -kill application_id yarn kill 超时任务脚本
需求:kill 掉yarn上超时的任务,实现不同队列不同超时时间的kill机制,并带有任务名的白名单功能
此为python脚本,可配置crontab使用
# _*_ coding=utf-8 _*_
# !/usr/bin/python
import re
import commands
import time
run_app_arr = []
timeout_app_arr = []
ONE_HOURE = 1
THREE_HOURE = 3
TEST_QUEUE_NAME = ['hue', 'etl-test']
ONLINE_QUEUE_NAME = ['default']
KILL_WHITE_LIST = ['org.apache.spark.sql.hive.thriftserver.HiveThriftServer2']
DINGDING_URL = 'xxx'
ding_cmd = """ curl %s -H 'Content-Type: application/json' -d '{"msgtype": "text", "text": {"content": "== YARN OVERTIME JOB KILL 告警 ==\n\n 当前时间: %s \n kill_app_id: %s \n kill_app_name: %s \n kill_app_queue: %s "}}' """
f = None
try:
f = open('/home/hadoop/autokillhadoopjob/check_timeout_job.log', 'a')
commond = '. /etc/profile && yarn application -list | grep "http://" |grep "RUNNING" |cut -f1,2,5'
# 获得正在运行job的id,name,queue 加到 run_app_arr
status, output = commands.getstatusoutput(commond)
f.write('#' * 50 + '\n')
f.write('=> start_time: %s \n' % (time.strftime('%Y-%m-%d %H:%M:%S')))
if status == 0 :
for line in output.split('\n'):
if line.startswith('application_'):
app_line = re.split('\t', line)
running_app_id = app_line[0].strip()
running_app_name = app_line[1].strip()
app_queue = app_line[2].strip()
# 根据所在队列 筛选出app加到数组中
if app_queue in TEST_QUEUE_NAME or app_queue in ONLINE_QUEUE_NAME:
run_app_arr.append((running_app_id, running_app_name, app_queue))
else:
f.write('yarn -list 执行失败. status: %s.'%(status))
# 遍历所有队列的running job,如有超时加到timeout_app_arr
for run_app in run_app_arr:
running_app_id = run_app[0]
running_app_name = run_app[1]
running_app_queue = run_app[2]
commond = ". /etc/profile && yarn application -status " + running_app_id + "| grep 'Start-Time' | awk -F ':' '{print $2}'"
status, output = commands.getstatusoutput(commond)
if status == 0:
for line in output.split('\n'):
start_timestamp = line.strip()
if start_timestamp.isdigit():
# 计算任务耗时
elapsed_time = time.time() - int(start_timestamp) / 1000
cost_time = round(elapsed_time / 60 / 60, 2)
f.write('=> cost_time: %sh \n' % (cost_time))
# print cost_hour
# 筛选出超时的job 加到数据组中/过滤掉白名单任务
if running_app_name not in KILL_WHITE_LIST:
if (running_app_queue in TEST_QUEUE_NAME and cost_time > ONE_HOURE) \
or (running_app_queue in ONLINE_QUEUE_NAME and cost_time > THREE_HOURE):
# if cost_hour > 0:# 测试
f.write('=> timeout app => %s # %s # %s\n' % (running_app_id, running_app_name, running_app_queue))
timeout_app_arr.append((running_app_id, running_app_name, running_app_queue))
else:
f.write('yarn -status 执行失败. status: %s.'%(status))
if len(timeout_app_arr) == 0:
f.write('=> no timeout job.\n')
# kill掉超时的job 并dingding报警
for kill_app in timeout_app_arr:
kill_app_id = kill_app[0]
kill_app_name = kill_app[1]
kill_app_queue = kill_app[2]
commond = '. /etc/profile && yarn application -kill ' + kill_app_id
status, output = commands.getstatusoutput(commond)
if status == 0:
f.write('=> kill app sucessfully: %s # %s # %s.\n' % (kill_app_id, kill_app_name, kill_app_queue))
current_time = time.strftime('%Y-%m-%d %H:%M:%S')
cmd = ding_cmd % (DINGDING_URL, current_time, kill_app_id, kill_app_name, kill_app_queue)
commands.getstatusoutput(cmd)
else:
f.write('=> kill app failed: %s # %s # %s.\n' % (kill_app_id, kill_app_name, kill_app_queue))
f.write('=> stop_time: %s \n' % (time.strftime('%Y-%m-%d %H:%M:%S')))
except Exception as e:
f.write('=> Exception: %s \n' % (e.message))
finally:
if f:
f.close()
yarn application -kill application_id yarn kill 超时任务脚本的更多相关文章
- hadoop job -kill 和 yarn application -kill 区别
hadoop job -kill 调用的是CLI.java里面的job.killJob(); 这里会分几种情况,如果是能查询到状态是RUNNING的话,是直接向AppMaster发送kill请求的.Y ...
- hadoop job -kill 与 yarn application -kii(作业卡了或作业重复提交或MapReduce任务运行到running job卡住)
问题详情 解决办法 [hadoop@master ~]$ hadoop job -kill job_1493782088693_0001 DEPRECATED: Use of this script ...
- yarn application命令介绍
yarn application 1.-list 列出所有 application 信息 示例:yarn application -list 2.-appStates <Stat ...
- kill 进程卡住,超时kill方法
还是有漏洞 ,万一 working.py未超时, kill_job.sh 会不会杀死别人的进程啊start.sh#!/bin/bash python working.py &python wo ...
- spark-shell启动报错:Yarn application has already ended! It might have been killed or unable to launch application master
spark-shell不支持yarn cluster,以yarn client方式启动 spark-shell --master=yarn --deploy-mode=client 启动日志,错误信息 ...
- yarn application ID 增长达到10000后
Job, Task, and Task Attempt IDs In Hadoop 2, MapReduce job IDs are generated from YARN application I ...
- Yarn application has already exited with state FINISHED
如果在运行spark-sql时遇到如下这样的错误,可能是因为yarn-site.xml中的配置项yarn.nodemanager.vmem-pmem-ratio值偏小,它的默认值为2.1,可以尝试改大 ...
- spark利用yarn提交任务报:YARN application has exited unexpectedly with state UNDEFINED
spark用yarn提交任务会报ERROR cluster.YarnClientSchedulerBackend: YARN application has exited unexpectedly w ...
- 【深入浅出 Yarn 架构与实现】3-1 Yarn Application 流程与编写方法
本篇学习 Yarn Application 编写方法,将带你更清楚的了解一个任务是如何提交到 Yarn ,在运行中的交互和任务停止的过程.通过了解整个任务的运行流程,帮你更好的理解 Yarn 运作方式 ...
随机推荐
- influxDB 0.9 C# 读写类
influxDB 0.9 C# 读写类 目前influxdb官网推荐的C#读写类是针对0.8版本的,截至本文写作之前,尚未发现有针对0.9的读写类. 我使用influxdb的是用于保存服务器的运行 ...
- reids(缓存,reids下载,安装 测试)
什么是缓存:缓存就是数据交换的缓冲区(称作Cache),当某一硬件要读取数据时,会首先从缓存中查找需要的数据,如果找到了则直接执行,找不到的话则从内存中找.由于缓存的运行速度比内存快得多,故缓存的作用 ...
- 关于Strategy和State设计模式
之前,我在描述我所采用的设计模式时,一直在Strategy和State之间犹豫,略微有些拿捏不准,说哪种设计模式好.结果到最后,会根据自己所想,觉得是State就是State,觉得Strategy就是 ...
- [UE4]传值与传引用
值传递是圆形图标 设置引用需要使用Set by ref函数 对象在蓝图中都是以引用传递 对象,不需要额外设置参数类型是传值还是传引用. 结构体在蓝图中默认是按值传递 也可以手动设置结构体参数为按引用类 ...
- [UE4]控制台命令,生成机器人
在关卡蓝图中: 运行游戏的手,按“·”键(键盘第二行第一个键,数字1前面的一个键)呼出控制台输入界面,输入“ce 事件名称 参数值”,然后回车. 可以添加一个Trigger Box作为机器人的出生点
- 网站简介-为什么网站的ICO图标更新后,ie浏览器没有更新过来?
为什么网站的ICO图标更新后,ie浏览器没有更新过来? 如何更新本地ico图标? 收藏夹里的网址访问后网站ico小图标怎么不会更新,还是没图标的. 如果制作了一个新的favicon.ico图标,并且已 ...
- 获取地图文档(*.mxd)中比例尺问题
地图比例尺的概念是建立在有投影坐标系的空间参考前提下,将地图缩放到一定大小的比例值. 在多数情况下,我们都是将一个地图文档(*.mxd)加载到地图控件中(AxMapControl)显示出来,照此去获取 ...
- CTF PHP文件包含--session
PHP文件包含 Session 首先了解一下PHP文件包含漏洞----包含session 利用条件:session文件路径已知,且其中内容部分可控. 姿势: php的session文件的保存路径可以在 ...
- PhysX Clothing for UE4
转自:http://www.52vr.com/article-737-1.html Hello! 之前看到论坛里有人发了个关于UE4布料的小知识,于是跟帖说抽空写个布料的工作流程供大家参考,那么,今天 ...
- 浏览器兼容java小程序配置说明
最近在使用的一个web应用系统是内嵌了java小程序,遇到了各种浏览器兼容性问题,现梳理如下: 1.通过以下链接检测当前电脑是否已经安装有java https://java.com/zh_CN/dow ...