OGG复制进程延迟高,优化方法一(使用索引)
日常运维过程中,可能发现OGG同步进程延迟很高;
本篇介绍其中的一种方式。
OGG复制进程,或者说同步进程及通过解析ogg trail文件,输出dml语句,在目标库执行dml操作,那么延迟高可能性其一、执行dml操作效率太低。 本篇不考虑并发过高或其它原因。 本次只考虑是执行update or delete的时候SQL效率执行太差!
导致OGG复制进程延迟很高。
GGSCI > info all Program Status Group Lag at Chkpt Time Since Chkpt MANAGER RUNNING REPLICAT RUNNING RP10 :: ::
延迟说明参考
https://www.onekbit.com/ViewBlog/blog/BID20200408100342
一 、Time Since Checkpoint 过高
指ogg的extract或replicat进程产生最近的一个检查点,再从这个检查点到目前为止有多长时间没有更新了,即最近一个检查点与当前系统时间的时间差。该值可以通过info看到是在不断变化(特别是当处理长会话时,会持续增长,直到处理完该长会话)。
对于复制进程来说,如果Time Since Chkpt 延迟有2个小时,说明这个进程存在2个小时检查点未更新,也就说明有一个或多个组合成的大事务,执行了2个小时,并未执行成功???
正常情况下,OGG遇到异常报错,导致OGG进程中断Time Since Chkpt 50个小时后,解决报错后,启动该进程,一般来说2分内,会执行成功最少一个事务,会写入新的检查点,延迟的50个小时,会自动转换为lag at chkpt 50小时延迟。
异常情况或者说需要优化调整的情况是,启动进程,发现time since chkpt 延迟一直递增,不减少。说明存在事务未执行完毕。
实际遇到的情况1,进程同步4个表,其中一个表很大10G,并且目标端无主键!!!
因此目标端执行一条update sql执行效率非常低。 如何处理???
1.表存在主键
select * from user_cons_columns
where constraint_name = (select constraint_name from user_constraints
where table_name = 'BST_FAVORITE' and constraint_type ='P');
2.对OGG复制进程添加参数指定主键列
map source_owner.table_name target target_owner.table_name;
添加参数
map source_owner.table_name target target_owner.table_name,keycols(primary_column_name);
3.对于不存在主键的表呢???
select count(*) from xxx; 得到表的数量,如果表很大,不执行最好。
通过dba_tab_columns 根据NUM_DISTINCT 得到最多distinct的列,及选择性好的列。
SQL> select COLUMN_NAME,NUM_NULLS,NUM_DISTINCT,to_char(LAST_ANALYZED,'yyyy-mm-dd') as "date" from dba_tab_columns where owner='cc' and table_name='cc' order by ;
结合表的索引列selecta.uniqueness 索引类型,b.index_name 索引名称,b.column_name 字段fromuser_indexes a ,user_ind_columns b
where a.table_name=b.table_name and a.index_name = b.index_nameand a.table_owner=upper('SAPSR3') and a.table_name='ANLU' order by a.uniqueness desc;二、Lag at Chkpt
lag是复制进程处理最后一条记录的操作系统时间和此条记录在trail文件中记录的时间戳的差值,这里需要注意的是lag延迟只有在检查点更新时才会更新,所以这个值不是实时更新的,具有一定的离散性,实际上应该理解成最后一个检查点的最后一条记录与当前系统时间的时间差。
借鉴
Replicat负责数据的入库,一般速度相对于主extract和data pump较慢,容易产生较大延迟。当replicat出现延迟后,需要对进程进行调优或者拆分,具体步骤参照本文档上一节。一般调优完成后,在日常业务状态下应当不存在较大延迟(一般几秒到一分钟以内);
当出现批处理时,可以允许一定的延迟,一般以不影响第二天的正常业务为准 – 例如,如果批处理每天早上4点前结束,可以控制延迟在2小时以内。 因此,首先需要确定OGG复制所允许的最大延迟在日常业务和批处理时的目标是什么,然后一旦达不到此目标就要依据上上面介绍的方法进行性能的调优。
自我理解: 按照我们实际运维的情况,OGG同步数据也是根据业务要求分级别的。
例如OGG链路1,是用于数据报表生成,那么必须保证业务每天在8点~10点之间是OGG无延迟,否则延迟高哪怕是10分钟,也可能导致报表不准确,因此这种OGG链路的复制 不允许在7~10点存在明显延迟。
例如OGG链路2,用于OGG灾备环境,重要性没那么重要,因此保证OGG复制进程1天内或者3天内数据同步即可。
站在运维的角度,需要结合实际情况考虑OGG重要程度,进行评估。 如果不影响业务,纯粹的延迟可以忽略。
实际遇到延迟50小时。
本次讲述通过索引加快OGG同步方式;
2.1 定位OGG复制进程在oracle数据库中的Session
$ps -ef|grep RP10
PID
20 RP10 ······
$ps -ef|grep 20
PID
60864 LOCAL=NO [OGG Session process]
SQL> select s.sid,s.serial#,sql_id,p.program from v$process p,v$session s where p.addr=s.paddr and p.spid=;
SID SERIAL# SQL_ID PROGRAM
------------------------------------------------
2j664 oracle@cc (TNS V1-V3)
2.2 定位造成OGG复制进程延迟过高的SQL
通过ash视图,查询1天内这个OGG进程 session ,都在执行什么sql ,event信息。 ash视图间隔1s采样 active session 1次。因此捕捉到的次数越多,说明消耗花费的时间越多。
select sql_id,event,BLOCKING_SESSION,CURRENT_OBJ#,count(*) from v$active_session_history where SAMPLE_TIME>sysdate- and SESSION_ID= and SESSION_SERIAL#=37851
group by sql_id,event,BLOCKING_SESSION,CURRENT_OBJ# order by ,;
SQL_ID EVENT BLOCKING_SESSION CURRENT_OBJ# COUNT(*)
------------- ---------------------------------------------------------------- ---------------- ------------ ----------
1n7zz8wb86jpw
088mh1tws6wtm -
2jt8ttg6b42b4
9y2087cvvr4r9
1n7zz8wb86jpw -
2cc4 -
9y2087ccc9 -
rows selected. select * from table(dbms_xplan.display_cursor('2ccb4'));
SQL> select * from table(dbms_xplan.display_cursor('9ycc'));
PLAN_TABLE_OUTPUT
--------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------
SQL_ID xx, child number
-------------------------------------
DELETE FROM "W"."DT" WHERE "U_ID"
= :b0 AND 多个列 ······ AND "C_SORT"
= :b18 AND ROWNUM =
PLAN_TABLE_OUTPUT
----------------------------------------------------------------------------------------------------
Plan hash value:
----------------------------------------------------------------------------------------------------
| Id | Operation | Name | Rows | Bytes | Cost (%CPU)| Time |
----------------------------------------------------------------------------------------------------
| | DELETE STATEMENT | | | | ()| |
| | DELETE | DT | | | | |
|* | COUNT STOPKEY | | | | | |
|* | TABLE ACCESS FULL| DT | | | ()| :: |
----------------------------------------------------------------------------------------------------
PLAN_TABLE_OUTPUT
----------------------------------------------------------------------------------------------------
Predicate Information (identified by operation id):
---------------------------------------------------
- filter(ROWNUM=)
- filter(("U_ID"=:B0 AND 多个列······ "O_SORT"=TO_NUMBER(:B18))) rows selected. 距离,两个SQL 同一个表,都是delete操作,几乎相同。 执行几乎全表扫描,表10G,当然慢了,对吧? 执行删除1条记录,需要访问10G的数据。。。不慢才怪。
2.3 创建索引,加快OGG进程同步速度。
查询表相关索引,不存在。
select index_owner,index_name,table_name,column_name,column_position from dba_ind_columns where table_name='DT' order by index_name,column_position;
null 查询列的选择性
select * from dba_tab_col_statistics where table_name='DT' order by column_name;
```````
OWNER TABLE_NAME COLUMN_NAME NUM_DISTINCT LOW_VALUE
------------------------------ ------------------------------ ------------------------------ ------------ ----------------------------------------------------------------
HIGH_VALUE DENSITY NUM_NULLS NUM_BUCKETS LAST_ANAL SAMPLE_SIZE GLO USE AVG_COL_LEN HISTOGRAM
---------------------------------------------------------------- ---------- ---------- ----------- --------- ----------- --- --- ----------- ---------------
W DT U_ID
-JUL- YES NO NONE
······
rows selected. SQL> select count(*) from "W"."DT";
COUNT(*)
----------
724643
GGSCI > stop Ogg_process
!注意,本次知道OGG对应是灾备,不存在大量相关业务,慎用no_invalidate>false
exec dbms_stats.gather_table_stats(ownname=>'W',tabname=>'DT',cascade=>true,degree=>,estimate_percent=>,no_invalidate=>false) ;
再次查询
OWNER TABLE_NAME COLUMN_NAME NUM_DISTINCT LOW_VALUE
------------------------------ ------------------------------ ------------------------------ ------------ ----------------------------------------------------------------
HIGH_VALUE DENSITY NUM_NULLS NUM_BUCKETS LAST_ANAL SAMPLE_SIZE GLO USE AVG_COL_LEN HISTOGRAM
---------------------------------------------------------------- ---------- ---------- ----------- --------- ----------- --- --- ----------- ---------------
W DT U_ID 59346 . -AUG- YES NO NONE
rows selected.
exec dbms_stats.gather_table_stats(ownname=>'W',tabname=>'DT',cascade=>true,degree=>8,estimate_percent=>10,no_invalidate=>false) ; 查询列的选择性
select OWNER,TABLE_NAME,COLUMN_NAME,NUM_DISTINCT,NUM_NULLS,LAST_ANALYZED from dba_tab_col_statistics where table_name='DT' order by NUM_DISTINCT;
OWNER TABLE_NAME COLUMN_NAME NUM_DISTINCT NUM_NULLS LAST_ANAL ------------------------------ ------------------------------ ------------------------------ ------------ ----------
xx O_SORT -AUG-20
xx U_ID -AUG-
rows selected. select count(*) from ( select distinct U_ID,O_SORT from xx.xx);
COUNT(*)
---------- create index xx.xxon xx.cc(U_ID,O_SORT) parallel ;
alter index xx.xx parallel ;
exec dbms_stats.gather_table_stats(ownname=>'W',tabname=>'DT',cascade=>true,degree=>8,estimate_percent=>10,no_invalidate=>false) ; GGSCI (obcdb36) > start ogg_process
SQL> select * from table(dbms_xplan.display_cursor('2jt8ttg6b42b4'));
----------------------------------------------------------------------------------
Plan hash value:
| Id | Operation | Name | Rows | Bytes | Cost (%CPU)| Time |
--------------------------------------------------------------------------------------------------------------
| | DELETE STATEMENT | | | | ()| |
| | DELETE | cc| | | | |
|* | COUNT STOPKEY | | | | | |
|* | TABLE ACCESS BY INDEX ROWID| cc| | | ()| :: |
|* | INDEX RANGE SCAN | IND_ID_SORT | | | ()| ::
至此,OGG使用索引加快了数据同步delete速度。
OGG复制进程延迟高,优化方法一(使用索引)的更多相关文章
- OGG复制进程延迟高,优化方法二(存在索引),SQL选择不好的索引
https://www.cnblogs.com/lvcha001/p/13469500.html 接前序,本次场景中有索引,但是OGG复制进程使用了低效率的索引? 类似SQL使用低效索引,如何让Or ...
- OGG复制进程延迟不断增长
1.注意通过进程查找sql_id时,进程号要查询两次 2.杀进程的连接 https://www.cnblogs.com/kerrycode/p/4034231.html 参考资料 1.https:// ...
- MySQL性能优化方法三:索引优化
原文链接:http://isky000.com/database/mysql-performance-tuning-index 大家都知道索引对于数据访问的性能有非常关键的作用,都知道索引可以提高数据 ...
- OGG投递进程报错无法open文件,无法正常投递
1.1现象 之前有个客户遇到一个问题,OGG同步数据链路,突然有一天网络出现问题,导致OGG投递进程无法正常投递,无法写入目标端的该文件. 猜测是由于网络丢包等原因导致文件损坏,无法正常open,re ...
- OGG复制同步,提示字段长度不够ORA-01704
日常运维OGG的环境中,如果遇到复制进程报错,提示字段长度不足如何处理??? 正常情况下,字段长度不足,但是未达到Oracle的限制时,可以对字段进行扩大限制满足目的. 实际环境中,遇到源端GBK,目 ...
- Linux下java进程CPU占用率高分析方法
Linux下java进程CPU占用率高分析方法 在工作当中,肯定会遇到由代码所导致的高CPU耗用以及内存溢出的情况.这种情况发生时,我们怎么去找出原因并解决. 一般解决方法是通过top命令找出消耗资源 ...
- php-fpm进程数优化方法
原文地址:https://www.douban.com/note/315222037/ 背景最近将Wordpress迁移至阿里云.由于自己的服务器是云服务器,硬盘和内存都比较小,所以内存经常不够使,通 ...
- mysql优化连接数防止访问量过高的方法
这篇文章主要介绍了mysql优化连接数防止访问量过高的方法,需要的朋友可以参考下 很多开发人员都会遇见”MySQL: ERROR 1040: Too many connections”的异常情况,造成 ...
- (转)Linux下java进程CPU占用率高-分析方法
Linux下java进程CPU占用率高-分析方法 原文:http://itindex.net/detail/47420-linux-java-%E8%BF%9B%E7%A8%8B?utm_source ...
随机推荐
- Flink之对时间的处理
window+trigger+watermark处理全局乱序数据,指定窗口上的allowedLateness可以处理特定窗口操作的局部事件时间乱序数据 1.流处理系统中的微批 Flink内部也使用了某 ...
- 我和ABP vNext 的故事
Abp VNext是Abp的.NET Core 版本,但它不仅仅只是代码重写了.Abp团队在过去多年社区和商业版本的反馈上做了很多的改进.包括性能.底层的框架设计,它融合了更多优雅的设计实践.不管你是 ...
- 详解Vue大护法——组件
1.什么是组件化 人面对复杂问题的处理方式: 任何一个人处理信息的逻辑能力都是有限的 所以,当面对一个非常复杂的问题时,我们不太可能一次性搞定一大堆的内容. 但是,我们人有一种天生的能力,就是将问题进 ...
- MySQL数据库---前言
MySQL是一个关系型数据库管理系统,由瑞典MySQL AB 公司开发,目前属于 Oracle 旗下公司.MySQL 最流行的关系型数据库管理系统,在 WEB 应用方面MySQL是最好的 RDBMS ...
- Java中的大数值使用
在Java中,偶尔会遇到超大数值,超出了已有的int,double,float等等你已知的整数.浮点数范围,那么可以使用java.math包中的两个类:BigInteger和BigDecimal. 这 ...
- jQuery中常用网页效果应用
一.常用网页效果应用 1.表单应用 表单由表单标签.表单域和表单按钮组成. 1.1单行文本框应用 例:获取和失去焦点改变样式 首先,在网页中创建一个表单,HTML代码如下 <form actio ...
- Linux企业运维人员最常用命令汇总
本文目录 线上查询及帮助命令 文件和目录操作命令 查看文件及内容处理命令 文件压缩及解压缩命令 信息显示命令 搜索文件命令 用户管理命令 基础网络操作命令 深入网络操作命令 有关磁盘与文件系统的命令 ...
- 02_Linux实操篇
第五章 VI和VIM编辑器 5.1. VI和VIM基本介绍 Vi编辑器是所有Unix及Linux系统下标准的编辑器,它的强大不逊色于任何最新的文本编辑器.由于对Unix及Linux系统的任何版本,Vi ...
- Spring报错: org.springframework.beans.factory.CannotLoadBeanClassException: Cannot find class [xxx]
如果确实没有这个类,就挨个将总项目,子项目clean,install一下,注意他们的依赖关系.
- 4-Pandas之数据类型与数据筛选
一.数据类型 1.Pandas的数据类型主要结合了pandas和numpy两个模块中的数据类型,包括以下几种: float int bool datetime64[ns]------>日期类型 ...