C中级 MariaDB Connector/C API 编程教程

2018-06-17 19:50:52来源:未知 阅读 ()

新老客户大回馈,云服务器低至5折

测试环境准备

   本文主要围绕的对象是mariadb 高级语法,  索引优化,  基础sql语句调优.

下面那就开始搭建本次测试的大环境. 首先下载mariadb开发环境, 并F5 run起来. 具体参照下面文章的具体套路.

  C中级 MariaDB Connector/C API 编程教程

数据库环境搭建好了, 我们需要导入一个mysql 中一个测试的sakila数据库进行实验.  通过下面步骤进行demo db搭建.

  sakila下载  http://dev.mysql.com/doc/index-other.html

下载成功后, 开始解压, 会得到3个文件只会用到其中两个sql创建脚本, 通过source按照schema -> data 顺序开始导入数据.

mysql -uroot -p
source H:/mariadb学习总结/mariadb优化/sakila-db/sakila-schema.sql
source H:/mariadb学习总结/mariadb优化/sakila-db/sakila-data.sql

上面路径请自行替换. 最终得到sakila数据库环境如下一共23表. 这里扯一点, sql脚本有时候需要';', 有时候不需要. 是什么原因呢.

一种解释是, 不需要 ';' 的是mariadb系统中内置命令, 单独命令.  需要分号的是执行语句. 为了通用推荐都加上分号.

 

到这里基本数据环境搭建好了.  然后还需要搭建一个慢查询的环境, 用于监测费时的sql操作. 在这里先入为主展现一下最终的搭建环境

这里主要围绕mariadb 三个全局变量,

  slow_query_log (是否开启慢查询),

  slow_query_log_file (慢查询指定输出日志文件路径)

  long_query_time (慢查询阀值, 单位秒, 只有超过这个时间的查询语句才会被记录到上面的日志文件中).

set global long_query_time = 0.001;
set global slow_query_log = on;

 对于需要指定的慢查询输出文件路基, 直接采用默认指定路径.

然后完毕当前会话窗口, 再重新打开会话窗口. 就开启了慢查询了. 上面是为了测试方便, 设置慢查询时间阀值为1毫秒.

(对于慢查询是什么, 可以详细查找资料.  慢查询本质其实是把运行慢的sql语句记录保存下来, 方便集中分析调优).

对于慢查询分析, 我们采用默认提供 mysqldumpslow.pl perl脚本进行分析. 需要下载安装perl解释器ActivePerl.

  perl解释器下载  https://www.perl.org/get.html

扯一点, 程序员经常需要在本机快速查找文件. 推荐用 Everything 这个工具 !!!

下载安装成功后, 我们简单测试使用一下.从慢查询日志 simplec-slow.log 中查找出前3条慢查询语句, 如下展示.

一切正常, 通过上面能够清晰查找出来那些语句执行的很耗时间.

  对于 mysqldumpslow.pl 其它命令 参照 http://www.cnblogs.com/yuqiandoudou/p/4663749.html

扯一点, 对于慢查询公司中有的采用这样套路, 进行可持续好的循环.

  1. 每天都会生成慢查询日志, 并通过定时脚本切分

  2. 将昨天慢查询日志前100条, 整理成清晰好阅读的文件.

  3. 通过邮件发送给每个后端开发的相关人员.

  4. 后端老大或核心人员会着手进行优化

到这里基础环境搭建部分, 就扯淡完了.  关于其它更好的回顾方式, 聪明的同学可以自行搜索相关优化高级视频进行学习实践.

本文部分例子参照 : http://www.imooc.com/learn/194  ... mysql性能优化视频

 

索引优化套路

  首先肯定从 explain语句开始 https://mariadb.com/kb/en/mariadb/explain/

 先看下面  explain select max(payment_date) from payment;

 

显示查询 type = ALL 表示查询性能最差. 读取了所有行, 表进行全表扫描。这是坏的 !这一切发生时,优化器找不到任何可用的索引访问行。

那我们优化一下 为其建立一个索引

drop index if exists idx_payment_paydate on payment;
create index idx_payment_paydate on payment(payment_date);
explain select max(payment_date) from payment;

得到最终结果如下

后面发现因为建立了索引, 查询之后立即得到结果, 这个因为建立了索引, 头和尾就是最大最小, 所以没有查询都得到结果了.

这就是建立索引快速查询的好处. 后面开始说索引优化的套路了.   percona-toolkit => 数据库优化的神器.

  percona-toolkit  https://www.percona.com/downloads/percona-toolkit/

      percona-toolkit工具包的安装和使用  http://www.cnblogs.com/zping/p/5678652.html

主要会使用到如下内嵌的perl 脚本(其它操作, 自行脑补, 异常管用) .


1.  pt-index-usage -> pt-index-usage [OPTION...] [FILE...]

     从log文件中读取插叙语句,并用explain分析他们是如何利用索引。完成分析之后会生成一份关于索引没有被查询使用过的报告。

pt-index-usage [慢查询文件路径] --host=localhost --user=root --password=[密码]

上面可以去掉冗余索引问题.

 

2. pt-query-digest -> pt-query-digest [OPTIONS] [FILES] [DSN]

使用上面工具分析慢查询分析,

详细的可以参照如下资料

  pt-query-digest查询日志分析工具  http://blog.csdn.net/seteor/article/details/24017913

以上就是关于mariadb 索引分析(究极分析)总有效, 最方便的方式. 欢迎尝试, 屡试不爽!

 

高级语法温故

  下面到能看见代码的环节了, sql高级语法无外乎, 触发器, 存储过程, 游标! 为什么要用这些, 因为说不定你就遇到了奇葩的jb需求呢.

1.  触发器 trigger

触发器可以通过下面方式记录需要涉及的操作步骤.

监视谁     : 表名
监视动作  :  insert / update / delete
触发时间  :  after 操作之后 / before 操作之前
触发事件  :  insert / update / delete

我们通过具体例子分析, 加入现在有个商品表 goods , 和一个订单表 ords . 当订单表完成后, 需要去掉响应商品表中库存.

先构建数据测试环境 

use test;

drop table if exists test.goods;
create table test.goods (
    id int not null comment "唯一主键",
    name varchar(20) not null comment "商品名称",
    num int not null comment "商品数量",
    
    primary key(id)
);

insert into goods values
(1, 'cat', 34),
(2, 'dog', 18),
(3, 'pig', 21);

drop table if exists test.ords;
create table test.ords (
    id int not null comment "唯一主键",
    gid int not null comment "商品id",
    num int not null comment "购买数量",
    
    primary key(id)
);

好那我们开始测试, 编写符合上面需求的触发器.

drop trigger if exists tri_ords_insert_before_goods;
delimiter $
create trigger tri_ords_insert_before_goods
before insert on ords
for each row
begin
    declare rnum int;
    select num into rnum from goods where id = new.gid;
    if new.num > rnum then 
        set new.num = rnum;
    end if;
    
    update goods set num = num - new.num where id = new.gid;
end
$
delimiter ;

需要说一下, 外头 for each row begin .. end 是必须套路(行语法级别, 每行都会执行). 这些语法多查查文献都清楚了, 做个试验. 

到这里触发器基本回顾完毕. 实际上触发器还是用的. 大家可以从 use sakila;  show triggers\G 看看更加具体案例.

 

2. 存储过程 procedure

  存储过程可以理解为上层语言中函数. 块语句能够传入数据, 也能返回结果. 同样用一个高斯和来介绍存储过程使用例子.

输出书n, 输出 s = 1 + 2 + .. n的和. 重在体会mariadb sql存储过程的语法直观感受.

-- 来个高斯和
drop procedure if exists proc_gauss;
delimiter $
create procedure proc_gauss(in n int, out s int)
begin
    declare i int default n;
    
    set s = 0;
    while i > 0 do
        set s = s + i;
        set i = i - 1;
    end while;
    
    select concat("gauss(", n, ") = ", s) gauss;
end
$
delimiter ;

测试结果如下 :

扯一点, 对于存储过程, in 是输出参数, 不会影响外头传入的值. out传入的时候为null, 但会输出. inout就是输入加输出.

set 支持 = 和 := 赋值, declare 声明变量必须要在存储过程开始部位.

 

3. 游标使用 cursor

  对于cursor 游标, 也是有套路的. 总结的笔记是

-- cursor 游标 游标的标志
-- 1条sql, 对应N条资源, 取出资源的接口/句柄, 就是游标
-- 沿着游标, 可以一次取出1行
-- declare 声明; declare 游标名, cursor for select_statement
-- open 打开; open 游标名
-- fetch 取值; fetch 游标名 into var1, var2[...]
-- close 关闭; close 游标名

这样至少熟悉了游标有那些关键字和操作步骤, 后面同样通过实战例子分析. 但是最需要的还是自我练习. 因为这类脚本多是实践中诞生的, 对动手能力依赖很强.

需求 : 我们需要得到某个查询总集中, 按照一定权限占比得到结果. 例如第一条数据权限值是1, 第二条数据权限值为2

以goods表为例, 求出 sum = 求和 num(i) * i. 一般这种需求可以放在应用层处理, 如果只借助sql. 那需要游标来处理.

-- 游标权限处理, 数据库层返回权限和
drop procedure if exists proc_cursor_sum;
delimiter $
create procedure proc_cursor_sum(out s int)
begin
    declare r_num int;
    declare i int default 1;
    declare lop int default 1;
    
    -- 声明游标
    declare getnums cursor for select num from goods;
    -- 声明handler 必须在游标声明之后, 当游标数据读取完毕会触发下面set
    declare continue handler for not found set lop = 0;
    
    set s = 0;
    
    -- 打开游标
    open getnums;
    
    -- 操作游标, 读取第一行数据
    fetch getnums into r_num;
    while lop = 1 do
        set s = s + r_num * i;
        set i = i + 1;
        
        -- 读取下一个行数据
        fetch getnums into r_num;
    end while;
    
    -- 关闭游标
    close getnums;
end
$
delimiter ;

最终操作结果正常

到这里关于mariadb sql常用高级语法编写例子都有了. 是不是发现, 脚本语言还是很容易掌握的, 只需要会查询手册.

 

常用脚本优化

  到这里会介绍几种查询脚本级别的优化方案.

1. 聚集索引的先后顺序. 参照下面例子

use sakila;
select * from payment where staff_id = 1 and customer_id = 345;
explain select * from payment where staff_id = 1 and customer_id = 345;

首先看 索引分析结果

这里先用 staff_id 相关索引, 后用 customer_id 相关索引. 这里有个技巧, 将区分细的放在前面, 减少查询的次数.  那么假如建立聚集索引, 就可以把区分度

高索引放在第一个位置上. 如何区分两个索引顺序可以参照下面sql语句

select count(distinct staff_id) "staff_id_cnt",
    count(distinct customer_id) "customer_id_cnt"
from payment;

 

2. 对于inner join 子语句数据量越小越好.

xxx inner join ( sql ) on xxx 语句中, 自语句sql 数据量越小查找速度越快, 假如外部where 可以尝试移动到其中.

或者最大化的将外层的 where 或者 group by 迁移到子语句的sql部分中.

 

3. limit 分页优化

首先直接看下面对比, 查询第(500, 500] 区间内数据.

select film_id, description from film order by film_id limit 500, 5;
explain select film_id, description from film order by film_id limit 500, 5;

 

从中可以看出rows, 查询了505行. 我们优化一下.

select film_id, description from film where film_id >500 and film_id <=505 order by film_id limit 5;
explain select film_id, description from film where film_id >500 and film_id <=505 order by film_id limit 5;

这里查询性能的提升是显著的.  完成的功能是一模一样, 这些优化都是有套路的轻松可以快速提升性能. 实在不行了再从硬件层考虑. 因为软件层的优化更加低廉.

 

4. 设计上优化, 通过unsigned int 代替 time string, bigint 代替 ip string

  思路是在mysql只保存时间戳和ip戳, 后面在代码层, 构建转换接口. 例如c 中自己写, 

时间串和时间戳转换函数. 可以参照 C基础 时间业务实战代码 . 对于 ip串和ip戳互相转换也简单.

使用系统提供的函数inet_aton和inet_ntoa. 这样就将数据库层运算操作移动到业务层进行运算.

再或者分表查询(垂直分表)等. 分表查询关注点在于 hash分流. 还有读写分析, 一般同主从复制配置.一台服务器写,一台服务器读.

 

5. 业务上优化, 例如对于大量的排序操作

   原先优化是从mysql层剥离处理, 放在业务层处理. 一般让后端服务器自己排序, 再发送数据给客户端. 

更加彻底的是, 后端服务器得到数据库服务器数据, 不进行排序. 直接抛给前端单机, 让其消耗客户机进行特殊排序.

其实思路很简单, 将大量重复计算业务抛给客户机去运行.  客户端才是一个系统性能瓶颈.

一个能够快速突破的客户端程序员, 一定是理解过服务器.

 

然后后记展望

   错误是难免的, 欢迎补充?.

    贝多芬的悲伤  http://music.163.com/#/song?id=314773

   

标签:

版权申明:本站文章部分自网络,如有侵权,请联系:west999com@outlook.com
特别注意:本站所有转载文章言论不代表本站观点,本站所提供的摄影照片,插画,设计作品,如需使用,请与原作者联系,版权归原作者所有

上一篇:lvarchar类型对表结构变更影响

下一篇:PostgreSQL 备忘