使用perconna慢查询日志分析工具

时间:2022-04-13 08:00:08 阅读: 最新文章 文档下载
说明:文章内容仅供预览,部分内容可能不全。下载后的文档,内容与下面显示的完全一致。下载之前请确认下面内容是否您想要的,是否完整无缺。
使用perconna慢查询日志分析工具

第一部分:安装percona-toolkit

一、环境

linux(不支持windows

二、快速安装

(我使用的,用成功了) wget

https://www.percona.com/downloads/percona-toolkit/2.2.16/RPM/percona-toolkit-2.2.16-1.noarch.rpm && yum localinstall -y percona-toolkit-2.2.16-1.noarch.rpm

三、源码安装

(网上还有这种装法,本人linux白痴一个,没敢用这么复杂方法,不知道此方法可行不,有兴趣的可以试下): wget

https://www.percona.com/downloads/percona-toolkit/2.2.14/tarball/percona-toolkit-2.2.14.tar.gz

tar -zxvf percona-toolkit-2.2.14.tar.gz cd percona-toolkit-2.2.14 #cat Makefile.PL #cat README

perl Makefile.PL make make test make install

/usr/local/bin/pt-query-digest /opt/tuniu/mysql/data/slow-query.log

第二部分:语法及重要选项

一、语法

pt-query-digest [OPTIONS] [FILES] [DSN]

二、重要选项




--create-review-table 当使用--review参数把分析结果输出到表中时,果没有表就自动创建。

--create-history-table 当使用--history参数把分析结果输出到表中时,如果没有表就自动创建。

--filter 对输入的慢查询按指定的字符串进行匹配过滤后再进行分析

--limit限制输出结果百分比或数量,默认值是20,即将最慢的20条语句输出,如果是50%则按总响应时间占比从大到小排序,输出到总和达到50%位置截止。 --host mysql服务器地址 --user mysql用户名

--password mysql用户密码

--history 将分析结果保存到表中,分析结果比较详细,下次再使用--history时,如果存在相同的语句,且查询所在的时间区间和历史表中的不同,则会记录到数据表中,可以通过查询同一CHECKSUM来比较某类型查询的历史变化。 --review 将分析结果保存到表中,这个分析只是对查询条件进行参数化,一个类型的查询一条记录,比较简单。当下次使用--review时,如果存在相同的语句分析,就不会记录到数据表中。

--output 分析结果输出类型,值可以是report(标准分析报告)

slowlog(Mysql slow log)jsonjson-anon,一般使用report,以便于阅读。 --since 从什么时间开始分析,值为字符串,可以是指定的某个”yyyy-mm-dd [hh:mm:ss]格式的时间点,也可以是简单的一个时间值:s()h(小时)m()d(),如12h就表示从12小时前开始统计。

--until 截止时间,配合—since可以分析一段时间内的慢查询。

第三部分:用法示例

你用第一次pt-query-digest命令的时候,系统会提示你安装它,然后根据它的提示一步一步走下去就好了;

安装完成之后就可以用这个的命令了;

一、直接分析慢查询文件:

pt-query-digest slow.log > slow_report.log

二、分析最近12小时内的查询:

pt-query-digest --since=12h slow.log > slow_report2.log

三、分析指定时间范围内的查询:

pt-query-digest slow.log --since ‘2014-04-17 09:30:00‘ --until ‘2014-04-17 10:00:00‘> > slow_report3.log

四、分析指含有select语句的慢查询

pt-query-digest--filter ‘$event->{fingerprint} =~ m/^select/i‘ slow.log> slow_report4.log


五、针对某个用户的慢查询

pt-query-digest--filter ‘($event->{user} || "") =~ m/^root/i‘ slow.log> slow_report5.log

六、查询所有所有的全表扫描或full join的慢查询

pt-query-digest--filter ‘(($event->{Full_scan} || "") eq "yes") ||(($event->{Full_join} || "") eq "yes")‘ slow.log> slow_report6.log

七、把查询保存到query_review

pt-query-digest --user=root password=abc123 --review h=localhost,D=test,t=query_review--create-review-table slow.log

八、把查询保存到query_history

pt-query-digest --user=root password=abc123 --review h=localhost,D=test,t=query_ history--create-review-table slow.log_20140401 pt-query-digest --user=root password=abc123--review h=localhost,D=test,t=query_history--create-review-table slow.log_20140402

九、通过tcpdump抓取mysqltcp协议数据,然后再分析

tcpdump -s 65535 -x -nn -q -tttt -i any -c 1000 port 3306 > mysql.tcp.txt pt-query-digest --type tcpdump mysql.tcp.txt> slow_report9.log

十、分析binlog

mysqlbinlog mysql-bin.000093 > mysql-bin000093.sql

pt-query-digest --type=binlog mysql-bin000093.sql > slow_report10.log

十一、分析general log

pt-query-digest --type=genlog localhost.log > slow_report11.log




本文来源:https://www.wddqw.com/doc/43a7e665f4ec4afe04a1b0717fd5360cba1a8ddc.html