博客
关于我
Oracle Dump 分析学习总结
阅读量:127 次
发布时间:2019-02-26

本文共 1855 字,大约阅读时间需要 6 分钟。

简单分析dump出来的Oracle数据块

一、dump数据块

Oracle的ROWID包含了数据对象号、数据文件号、数据文件中的块号以及块中的行号等信息。这些信息可以通过DBMS_ROWID包转换为具体的数字。

SQL> select dbms_rowid.ROWID_RELATIVE_FNO(rowid) as file#,       dbms_rowid.ROWID_BLOCK_NUMBER(rowid) as block#,       dbms_rowid.ROWID_ROW_NUMBER(rowid) as row#,       a.* from paololiu.test1 a;

运行上述SQL语句后,会发现所有记录都位于第6号文件的131号块,分别占用了块内的第0、1、2行。

二、分析dump出来的数值

数据结构分析

SQL> desc test1;Name        Null?   Type-----------  -----  ----------------------------AAA        NULL    CHAR(5)BBB        NULL    VARCHAR2(50)
  • typ=96表示字符类型(CHAR)
  • typ=1表示可变长字符串类型(VARCHAR2)
  • 数值型字段的ASCII值对应字符编码(例如,97=a,98=b,99=c,49=1,50=2)
  • 空格填充字符为32,字符串长度补充为32

数值类型分析

1. 整数类型分析

SQL> select dump(123456) as dump1 from dual;

输出结果:

  • Typ=2 Len=4: 195,13,35,57
  • 195-193=2
  • 13-1=12 → 12×100²=120000
  • 35-1=34 → 34×100¹=3400
  • 57-1=56 → 56×100⁰=56
  • 总计:120000 + 3400 + 56 = 123456

2. 浮点数类型分析

SQL> select dump(123456.789) as dump1 from dual;

输出结果:

  • Typ=2 Len=6: 195,13,35,57,79,91
  • 195-194=2
  • 13-1=12 → 12×100²=120000
  • 35-1=34 → 34×100¹=3400
  • 57-1=56 → 56×100⁰=56
  • 79-1=78 → 78×100⁻¹=0.78
  • 91-1=90 → 90×100⁻²=0.09
  • 总计:120000 + 3400 + 56 + 0.78 + 0.09 = 123456.789

3. 负数类型分析

SQL> select dump(-98765.4321) as dump1 from dual;

输出结果:

  • Typ=2 Len=7: 60,92,14,36,58,80,102
  • 62-60=2
  • 92-101=-9 → -9×100²=-90000
  • 14-101=-87 → -87×100¹=-8700
  • 36-101=-65 → -65×100⁰=-65
  • 58-101=-43 → -43×100⁻¹=-0.43
  • 80-101=-21 → -21×100⁻²=-0.0021
  • 总计:-90000 - 8700 - 65 - 0.43 - 0.0021 = -98765.4321

ORACLE系统dump分析

某日数据库运行异常,通过SQL*Plus无法正常连接。查看alert.log发现多次时间漂移警告(VKTM detected a time drift),表明数据库可能存在时钟驱动问题。

SQL> sqlplus -prelim / as sysdba;SQL> oradebug setmypid;SQL> oradebug dump systemdump 266;

等待90秒后,通过awk脚本分析dump文件,发现主要原因是ASH(Active Session History)缓存不足,导致 emergency flush频繁发生。可以通过增加ASH大小或优化相关查询来解决问题。

最终,建议执行以下步骤:

  • 检查数据库时钟配置,确保系统时间正确
  • 观察ASH大小,必要时调整为较大值
  • 监控emergency flush事件,评估是否需要优化相关业务逻辑
  • 定期清理缓存或调优数据库性能
  • 通过上述方法,可以有效解决数据库hang问题,确保系统稳定运行。

    转载地址:http://gkfy.baihongyu.com/

    你可能感兴趣的文章
    NIFI大数据进阶_外部ZK模式集群1_实际操作搭建NIFI外部ZK模式集群---大数据之Nifi工作笔记0017
    查看>>
    NIFI大数据进阶_实时同步MySql的数据到Hive中去_可增量同步_实时监控MySql数据库变化_操作方法说明_01---大数据之Nifi工作笔记0033
    查看>>
    NIFI大数据进阶_离线同步MySql数据到HDFS_01_实际操作---大数据之Nifi工作笔记0029
    查看>>
    NIFI大数据进阶_离线同步MySql数据到HDFS_02_实际操作_splitjson处理器_puthdfs处理器_querydatabasetable处理器---大数据之Nifi工作笔记0030
    查看>>
    NIFI大数据进阶_离线同步MySql数据到HDFS_说明操作步骤---大数据之Nifi工作笔记0028
    查看>>
    NIFI大数据进阶_连接与关系_设置数据流负载均衡_设置背压_设置展现弯曲_介绍以及实际操作---大数据之Nifi工作笔记0027
    查看>>
    NIFI数据库同步_多表_特定表同时同步_实际操作_MySqlToMysql_可推广到其他数据库_Postgresql_Hbase_SqlServer等----大数据之Nifi工作笔记0053
    查看>>
    NIFI汉化_替换logo_二次开发_Idea编译NIFI最新源码_详细过程记录_全解析_Maven编译NIFI避坑指南001---大数据之Nifi工作笔记0068
    查看>>
    NIFI汉化_替换logo_二次开发_Idea编译NIFI最新源码_详细过程记录_全解析_Maven编译NIFI避坑指南002---大数据之Nifi工作笔记0069
    查看>>
    NIFI集群_内存溢出_CPU占用100%修复_GC overhead limit exceeded_NIFI: out of memory error ---大数据之Nifi工作笔记0017
    查看>>
    NIFI集群_队列Queue中数据无法清空_清除队列数据报错_无法删除queue_解决_集群中机器交替重启删除---大数据之Nifi工作笔记0061
    查看>>
    NIH发布包含10600张CT图像数据库 为AI算法测试铺路
    查看>>
    Nim教程【十二】
    查看>>
    Nim游戏
    查看>>
    NIO ByteBuffer实现原理
    查看>>
    Nio ByteBuffer组件读写指针切换原理与常用方法
    查看>>
    NIO Selector实现原理
    查看>>
    nio 中channel和buffer的基本使用
    查看>>
    NIO_通道之间传输数据
    查看>>
    NIO三大组件基础知识
    查看>>