pt-query-digest是用于分析mysql慢查询的一个工具,它可以分析binlog、General log、slowlog,也可以通过SHOW PROCESSLIST或者通过tcpdump抓取的MySQL协议数据来进行分析.
 
下载:
pt-query-digest是一个perl脚本,只需下载并赋权即可执行。
wget percona.com/get/pt-query-digest
chmod u+x pt-query-digest
 
使用参数:
--create-review-table 当使用--review参数把分析结果输出到表中时,如果没有表就自动创建。
--create-history-table 当使用--history参数把分析结果输出到表中时,如果没有表就自动创建。
--filter 对输入的慢查询按指定的字符串进行匹配过滤后再进行分析。
--limit 限制输出结果百分比或数量,默认值是20,即将最慢的20条语句输出,如果是50%则按总响应时间占比从大到小排序,输出到总和达到50%位置截止。
--host mysql服务器地址
--user mysql用户名
--password mysql用户密码
--history 将分析结果保存到表中,分析结果比较详细,下次再使用--history时,如果存在相同的语句,且查询所在的时间区间和历史表中的不同,则会记录到数据表中.
--review 将分析结果保存到表中,这个分析只是对查询条件进行参数化,一个类型的查询一条记录,比较简单。当下次使用--review时,如果存在相同的语句分析,就不会记录到数据表中。
--output 分析结果输出类型,值可以是report(标准分析报告)、slowlog(Mysql slow log)、json、json-anon,一般使用report,以便于阅读。
--since 从什么时间开始分析,可以是指定的某个”yyyy-mm-dd [hh:mm:ss]”格式的时间点,也可以是简单的一个时间值:s(秒)、h(小时)、m(分钟)、d(天),如12h就表示从12小时前开始统计。
--until 截止时间,配合—since可以分析一段时间内的慢查询。
 
用法:
直接分析慢查询文件:
pt-query-digest slow.log > slow20170803.log
 
分析最近1小时内的查询:
pt-query-digest --since=1h slow.log > 1slow.log
 
分析指定时间范围内的查询:
pt-query-digest slow.log --since '2017-08-03 15:30:00' --until '2017-08-04 10:30:00' > slow83-84.log
 
分析指含有select语句的慢查询:
pt-query-digest --filter '$event->{fingerprint} =~ m/^select/i' slow.log > slow4.log
 
针对某个用户的慢查询:
pt-query-digest --filter '($event->{user} || "") =~ m/^admin/i' slow.log > slow5.log
 
查询所有所有的全表扫描或full join的慢查询:
pt-query-digest --filter '(($event->{Full_scan} || "") eq "yes") ||(($event->{Full_join} || "") eq "yes")' slow.log> slow6.log
 
把查询保存到query_review表:
pt-query-digest --user=root –password=abc123 --review h=localhost,D=test,t=query_review --create-review-table slow.log
 
把查询保存到query_history表:
pt-query-digest --user=root –password=abc123 --review h=localhost,D=test,t=query_ history --create-review-table slow.log
 
通过tcpdump抓取mysql的tcp协议数据,然后再分析:
tcpdump -s 65535 -x -nn -q -tttt -i any -c 1000 port 3306 > mysql.tcp.txt
pt-query-digest --type tcpdump mysql.tcp.txt> slow_report9.log
 
分析binlog:
mysqlbinlog mysql-bin.000001 > mysql-bin000001.sql
pt-query-digest --type=binlog mysql-bin000001.sql > slow10.log
 
分析general log:
pt-query-digest --type=genlog localhost.log > slow11.log
 
 
总体统计结果:
# 3.5s user time, 60ms system time, 28.96M rss, 209.24M vsz 该工具执行日志分析的用户时间,系统时间,物理内存占用大小,虚拟内存占用大小
# Current date: Thu Aug 3 16:24:12 2017 工具执行时间
# Hostname: Test_Server1 运行分析工具的主机名
# Files: slow.log 被分析的文件名
# Overall: 2.92k total, 190 unique, 0.81 QPS, 44.91x concurrency _________
total:语句总数量
unique:唯一的语句数量:唯一查询数量,即对查询条件进行参数化以后,总共有多少个不同的查询,
QPS
并发数
# Time range: 2017-08-03 15:24:14 to 16:24:11 日志记录的时间范围
# Attribute total min max avg 95% stddev median
属性 总计 最小 最大 平均 95% 标准 中等
# ============ ======= ======= ======= ======= ======= ======= =======
# Exec time 161525s 10s 485s 55s 151s 53s 35s 语句执行时间
# Lock time 1115s 17us 121s 382ms 1ms 6s 247us 锁占用时间
# Rows sent 51.71k 0 23.25k 18.13 0.99 602.10 0 发送到客户端的行数
# Rows examine 2.96G 0 51.26M 1.04M 4.93M 4.87M 0 select语句扫描行数
# Rows affecte 19.70M 0 1.64M 6.91k 0 105.18k 0
# Bytes sent 4.15M 0 1.50M 1.46k 1.78k 39.02k 72.65
# Query size 1.62M 15 5.17k 582.83 3.19k 872.43 202.40 查询的字符数
95%:把所有值从小到大排列,位置位于95%的那个数,这个数一般最具有参考价值。
median:中位数,把所有值从小到大排列,位置位于中间那个数。
 
查询分组统计结果:
# Profile
# Rank Query ID Response time Calls R/Call V/M Item
Rank:所有语句的排名,默认按查询时间降序排列,通过--order-by指定
Query ID:语句的ID,(去掉多余空格和文本字符,计算hash值)
Response time:响应时间,占所有响应时间的百分比
Calls:查询执行次数
R/Call:平均响应时间
V/M:响应时间Variance-to-mean的比率
Item:查询语句一部分
# ==== ================== ================ ===== ======== ===== ==========
# 1 0xF2F12348E0AAA2EE 9505.5255 5.9% 152 62.5364 46.28 SELECT s?.T? flb.t_user_icon S?.T? s?.T?
# 2 0x6CBF4855F6B63A3F 9432.3847 5.8% 46 205.0518 84.11 SELECT UNION S?.T?
# 3 0xD5EB4DCA5163EAF0 8125.6776 5.0% 150 54.1712 36.01 SELECT s?.t?
# 4 0xED7158FAD1CD1ADC 7723.8205 4.8% 162 47.6779 32.82 SELECT UNION s?.t? flb.t_user_plan
# 5 0xB3C258C1D1E1E94F 7443.5447 4.6% 136 54.7319 30.79 UPDATE flb.t_invest_plan
...
 
每一种查询的详细统计结果:
# Query 1: 0.11 QPS, 7.19x concurrency, ID 0xF2F12348E0AAA2EE at byte 6125794
# This item is included in the report because it matches --limit.
# Scores: V/M = 46.28
# Time range: 2017-08-03 16:00:25 to 16:22:27
# Attribute pct total min max avg 95% stddev median
# ============ === ======= ======= ======= ======= ======= ======= =======
# Count 5 152
# Exec time 5 9506s 10s 325s 63s 175s 54s 47s
# Lock time 0 79ms 222us 1ms 521us 761us 128us 490us
# Rows sent 0 47 0 1 0.31 0.99 0.46 0
# Rows examine 0 250.78k 0 5.83k 1.65k 5.73k 2.58k 0
# Rows affecte 0 0 0 0 0 0 0 0
# Bytes sent 1 81.30k 44 1.52k 547.70 1.39k 639.84 42.48
# Query size 11 183.13k 1.20k 1.21k 1.20k 1.20k 6.50 1.20k
# String:
# Databases S62 (50/32%), s50 (33/21%), flb (26/17%)... 6 more 库名
# Hosts
# Users develop 各个用户执行的次数(占比)
# Query_time distribution 查询时间分布, 长短体现区间占比,本例中1s-10s之间查询数量是10s以上的两倍。
# 1us
# 10us
# 100us
# 1ms
# 10ms
# 100ms
# 1s
# 10s+ ################################################################
# Tables 查询中涉及到的表
# SHOW TABLE STATUS FROM `s61` LIKE 'T6110'\G
# SHOW CREATE TABLE `s61`.`T6110`\G
# SHOW TABLE STATUS FROM `flb` LIKE 't_user_icon'\G
# SHOW CREATE TABLE `flb`.`t_user_icon`\G
# SHOW TABLE STATUS FROM `S61` LIKE 'T6101'\G
# SHOW CREATE TABLE `S61`.`T6101`\G
# SHOW TABLE STATUS FROM `S61` LIKE 'T6118'\G
# SHOW CREATE TABLE `S61`.`T6118`\G
# SHOW TABLE STATUS FROM `S61` LIKE 'T6114'\G
# SHOW CREATE TABLE `S61`.`T6114`\G
# SHOW TABLE STATUS FROM `s50` LIKE 'T5020'\G
# SHOW CREATE TABLE `s50`.`T5020`\G
# SHOW TABLE STATUS FROM `s61` LIKE 'T6141'\G
# SHOW CREATE TABLE `s61`.`T6141`\G
# EXPLAIN /*!50100 PARTITIONS*/ 示例
SELECT
...
 

pt-query-digest 工具使用分析的更多相关文章

  1. 常用 Java 静态代码分析工具的分析与比较

    常用 Java 静态代码分析工具的分析与比较 简介: 本文首先介绍了静态代码分析的基 本概念及主要技术,随后分别介绍了现有 4 种主流 Java 静态代码分析工具 (Checkstyle,FindBu ...

  2. Android内存优化之——static使用篇(使用MAT工具进行分析)

    这篇文章主要配套与Android内存优化之——static使用篇向大家介绍MAT工具的使用,我们分析的内存泄漏程序是上一篇文章中static的使用内存泄漏的比较不容易发现泄漏的第二情况和第三种情况—— ...

  3. 分享两个网址,一个是使用mssql自带的跟踪工具和分析工具

    http://www.cnblogs.com/Fooo/archive/2013/02/19/2916789.html 使用mssql自带的跟踪工具和分析工具 http://blog.csdn.net ...

  4. [转载] 常用 Java 静态代码分析工具的分析与比较

    转载自http://www.oschina.net/question/129540_23043 简介: 本文首先介绍了静态代码分析的基本概念及主要技术,随后分别介绍了现有 4 种主流 Java 静态代 ...

  5. 【转载】常用 Java 静态代码分析工具的分析与比较

    摘自:http://www.oschina.net/question/129540_23043常用 Java 静态代码分析工具的分析与比较 简介: 本文首先介绍了静态代码分析的基本概念及主要技术,随后 ...

  6. 常用Java静态代码分析工具的分析与比较

    给国产静态代码检测工具Pinpoint打Call! 简介 本文首先介绍了静态代码分析的基本概念及主要技术,随后分别介绍了4种现有的主流Java静态代码分析工具 (Checkstyle,FindBugs ...

  7. dns隧道攻击原理及常用工具流量分析

    DNS协议是一种请求应答协议,也是一种可用于应用层的隧道技术.虽然DNS流量的异常变化可能会被发现,但是在基于传统socket隧道已经濒临淘汰,TCP.UDP通信大量被安全设备拦截的大背景下,DNS. ...

  8. 16S 基础知识、分析工具和分析流程详解

    工作中有个真理:如果你连自己所做的工作的来龙去脉都讲不清楚,那你是绝对不可能把这份工作做好的. 这适用于任何行业.如果你支支吾吾,讲不清楚,那么说难听点,你在混日子,没有静下心来工作. 检验标准:随时 ...

  9. 使用Chrome工具来分析页面的绘制状态

    Chrome Canary(Chrome “金丝雀版本”)目前已经支持Continuous painting mode,用于分析页面性能.这篇文章将会介绍怎么才能页面在绘制过程中找到问题和怎么利用这个 ...

  10. Java中json工具对比分析

    Java中几个json工具分析 1, 环境 JDK1.6+IDE(IntelliJ IDEA)+windowsXP+GBK编码 2,分析对象 jackson1.8.2 http://jackson.c ...

随机推荐

  1. MySQL学习日志(建设中)

    1.前期准备 1.1软件需求 mysql8.0 Connector/J 8.0.31 workbench(懒得放链接自行百度吧) 一定不要下5.5或更低版本的,我折磨了宝贵的一上午,低版本bug很多, ...

  2. Gradle 安装配置

    1 下载 官网各版本下载地址如下: https://gradle.org/releases/ 2 安装 将下载后的压缩包(此处以 gradle-6.5-all.zip 为例)解压到某个目录进行安装. ...

  3. fetchAllAssoc 小分析

    这个函数出现在了两个地方 includes\database\database.inc line 2245 includes\database\prefetch.inc line 481 foreac ...

  4. wake on lan magic packet

    局域网模式,必须电脑和手机在同一个 局域网,或者是网段内 外网模式  这个就是,你拿着手机,在任何地方,都可以开机电脑.

  5. 手机安装python环境

    一.安装Termux环境 1.下载Termux Qpython 安装以后玩爬虫各种报错,也就不纠结了,直接弄Termux 虚拟环境 下载链接:https://wiki.termux.com/wiki/ ...

  6. span服务器控件

    Label Button 这些控件在服务器端都有对应的类可以去实例化一个对象, 可是像 span 这些在服务器没有对应的类可实例的, 在服务器端要实例化一个 span 控件时怎么办呢? 可以使用 Ht ...

  7. Qt excel操作相关

    #include <QDebug> #include <QAxObject> #include <QStandardPaths> #include <QFil ...

  8. cc1

    基础 cc接口及类介绍 Transformer接口 Defines a functor interface implemented by classes that transform one obje ...

  9. 安装SSMS出现许可证被颁发者直接吊销

    出现这种情况,使用以下链接下载rootsupd.exe程序:http://media.kaspersky.com/utilities/CorporateUtilities/rootsupd.zip 运 ...

  10. Pycharm实现sqlite数据库可视化