数据库了解知识点

*视图(了解)

*什么是视图

视图就是通过查询得到一张虚拟表,然后保存下来,下次可以直接使用其实视图也是表

*为什么要用视图

如果要频繁的操作一张虚拟表(拼表组成的),你就可以制作成视图 后续直接操作

*如何操作视图

# 固定语法create view 表名 as 虚拟表的查询sql语句# 具体操作create view teacher2course asselect * from teacher INNER JOIN course on teacher.tid = course.teacher_id;*注意1 创建视图在硬盘上只会有表结构 没有表数据(数据还是来自于之前的表)2 视图一般只用来查询 里面的数据不要继续修改 可能会影响真正的表ps:当你创建了很多视图之后 会造成表的不好维护,所以视图的使用频率不高,了解即可

*触发器(了解)

触发器就是在满足对表数据进行增、删、改的情况下,自动触发的功能使用触发器可以帮助我们实现监控、日志...
触发器可以在六种情况下自动触发:
增前、增后删前、删后改前、改后

基本语法结构

create trigger 触发器的名字before / afterinsert / update / deleteon 表名for each row    beginsql语句end

具体使用:针对触发器的名字 我们通常需要做到见名知意

示例:针对增

create trigger tri_before_insert_t1beforeinserton t1for each row    beginsql语句endcreate trigger tri_after_insert_t1afterinserton t1for each row    beginsql语句end
"""针对删除和修改 书写格式一致"""
在命令行客户端中,如果有一行命令以分号结束,那么回车后,mysql将会执行该命令,但有时候,不希望MySQL这么做,就可以修改默认语句结束符
ps: 修改MySQL默认的语句结束符:只作用于当前窗口delimiter $$  将默认的结束符号由;改为$$delimiter ;  改回;号
案例建表CREATE TABLE cmd(    id INT PRIMARY KEY auto_increment,    USER CHAR(32),    priv CHAR(10),    cmd CHAR(64),    sub_time datetime,  # 提交时间    success enum(‘yes‘, ‘no‘)  # 0代表执行失败);CREATE TABLE errlog(    id INT PRIMARY KEY auto_increment,    err_cmd CHAR(64),    err_time datetime);
"""当cmd表中的记录succes字段是no那么就触发触发器的执行去errlog表中插入数据NEW指代的就是一条条数据对象"""delimiter $$create trigger tri_after_insert_cmdafterinserton cmdfor each row    beginif NEW.success = ‘no‘ theninsert into errlog(err_cmd, err_time) values(NEW.cmd, NEW.sub_time);end if;end $$delimiter ;# 朝cmd表插入数据INSERT INTO cmd(    USER,    priv,    cmd,    sub_time,    success)VALUES(‘jason‘, ‘0755‘, ‘ls -l /etc‘, NOW(), ‘yes‘),(‘jason‘, ‘0755‘, ‘cat /etc/passwd‘, NOW(), ‘no‘),(‘jason‘, ‘0755‘, ‘useradd xxx‘, NOW(), ‘no‘),(‘jason‘, ‘0755‘, ‘ps aux‘, NOW(), ‘yes‘);# 删除触发器drop trigger tri_after_insert_cmd;

*事务(需要掌握)

什么是事物

开启一个事务可以包含多条sql语句 这些sql语句要么同时成功要么一个都别想成功 称之为事务的原子性

事物的作用

保证了对数据操作的安全性
eg: 还钱的例子egon用银行卡给我的支付宝转账10001将egon银行卡账户的数据减1000块2将jason支付宝账户的数据加1000块你在操作多条数据的时候可能会出现某几条操作不成功的情况

事物的四大特性

ACIDA:原子性    一个事务是一个不可分割的单位,事务中包含的诸多操作    要么同时成功要么同时失败C:一致性    事务必须是使数据库从一个一致性的状态变到另外一个一致性的状态    一致性跟原子性是密切相关的I:隔离性    一个事务的执行不能被其他事务干扰    (即一个事务内部的操作及使用到的数据对并发的其他事务是隔离的,并发执行的事务之间也是互相不干扰的)D:持久性    也叫"永久性"    一个事务一旦提交成功执行成功 那么它对数据库中数据的修改应该是永久的    接下来的其他操作或者故障不应该对其有任何的影响

如何使用事物

# 事务相关的关键字# 1 开启事务start transaction;# 2 回滚(回到事务执行之前的状态)rollback;# 3 确认(确认之后就无法回滚了)commit;案例:"""模拟转账功能"""create table user(    id int primary key auto_increment,    name char(16),    balance int);insert into user(name, balance) values(‘jason‘, 1000),(‘egon‘, 1000),(‘tank‘, 1000);# 1 先开启事务start transaction;# 2 多条sql语句update user set balance = 900 where name = ‘jason‘;update user set balance = 1010 where name = ‘egon‘;update user set balance = 1090 where name = ‘tank‘;#3 回滚事物rollback;# 4不做回滚,直接提交(确认之后就无法回滚了)commit;

总结:

当你想让多条sql语句保持一致性 要么同时成功要么同时失败 你就应该考虑使用事务

*存储过程(了解)

存储过程就类似于python中的自定义函数它的内部包含了一系列可以执行的sql语句,存储过程存放于MySQL服务端中,你可以直接通过调用存储过程触发内部sql语句的执行

基本使用

create procedure 存储过程的名字(形参1, 形参2, ...)beginsql代码end# 调用call 存储过程的名字();

三种开发模型

第一种应用程序:程序员写代码开发MySQL:提前编写好存储过程,供应用程序调用好处:开发效率提升了 执行效率也上去了缺点:考虑到人为因素、跨部门沟通的问题  后续的存储过程的扩展性差第二种应用程序:程序员写代码开发之外 设计到数据库操作也自己动手写优点:扩展性很高缺点:    开发效率降低    编写sql语句太过繁琐 而且后续还需要考虑sql优化的问题第三种应用程序:只写程序代码 不写sql语句 基于别人写好的操作MySQL的python框架直接调用操作即可  ORM框架  优点:开发效率比上面两种情况都要高 缺点:语句的扩展性差 可能会出现效率低下的问题 ps:第一种基本不用。一般都是第三种,出现效率问题再动手写sql

存储过程的具体演示

delimiter $$create procedure p1(in m int,  # 只进不出  m不能返回出去in n int,out res int  # 该形参可以返回出去)beginselect tname from teacher where tid > m and tid < n;set res = 666;  # 将res变量修改 用来标识当前的存储过程代码确实执行了end $$delimiter ;
# 针对形参res 不能直接传数据 应该传一个变量名# 定义变量set @ret = 10;# 查看变量对应的值,此时为10select @ret;#调用存储过程 call p1(1,2,@ret);# 查看变量对应的值,发现已经改为666select @ret;# 删除存储过程drop procedure p1;

在python的pymysql模块实现存储过程

import pymysqlconn = pymysql.connect(    host=‘127.0.0.1‘,    port=3306,    user=‘root‘,    passwd=‘123456‘,    db=‘day48‘,    charset=‘utf8‘,    autocommit=True)cursor = conn.cursor(pymysql.cursors.DictCursor)# 调用存储过程cursor.callproc(‘p1‘, (1, 5, 10))"""@_p1_0=1@_p1_1=5@_p1_2=10"""# print(cursor.fetchall())cursor.execute(‘select @_p1_2;‘)print(cursor.fetchall())

*内置函数(了解)

跟存储过程是有区别的,存储过程是自定义函数,函数就类似于是内置函数

详情介绍:数据库之函数

案例:

CREATE TABLE blog(    id INT PRIMARY KEY auto_increment,    NAME CHAR(32),    sub_time datetime);INSERT INTO blog(NAME, sub_time) VALUES    (‘第1篇‘, ‘2015-03-01 11:31:21‘),    (‘第2篇‘, ‘2015-03-11 16:31:21‘),    (‘第3篇‘, ‘2016-07-01 10:21:31‘),    (‘第4篇‘, ‘2016-07-22 09:23:21‘),    (‘第5篇‘, ‘2016-07-23 10:11:11‘),    (‘第6篇‘, ‘2016-07-25 11:21:31‘),    (‘第7篇‘, ‘2017-03-01 15:33:21‘),    (‘第8篇‘, ‘2017-03-01 17:32:21‘),    (‘第9篇‘, ‘2017-03-01 18:31:21‘);select date_format(sub_time, ‘%Y-%m‘), count(id) from blog group bydate_format(sub_time, ‘%Y-%m‘);

*流程控制(了解)

if判断

delimiter //CREATE PROCEDURE proc_if()BEGINdeclare i int default 0;if i = 1 THENSELECT 1;ELSEIF i = 2 THENSELECT 2;ELSE SELECT 7;ENDIF;END //delimiter ;

while循环

delimiter //CREATE PROCEDURE proc_while()BEGINDECLARE num INT;SET num = 0;WHILE num < 10DOSELECT num;SET num = num + 1;END WHILE;

loop

BEGIN

    declare i int default 0;
    loop_label: loop

        set i=i+1;
        if i<8 then
            iterate loop_label;
        end if;
        if i>=10 then
            leave loop_label;
        end if;
        select i;
    end loop loop_label;

END

*索引理论(了解日后再去扩展)

什么是索引

ps: 数据都是存在与硬盘上的,查询数据不可避免的需要进行IO操作索引: 就是一种数据结构,类似于书的目录。意味着以后在查询数据的应该先找目录再找数据,而不是一页一页的翻书,从而提升查询速度降低IO操作索引在MySQL中也叫“键”, 是存储引擎用于快速查找记录的一种数据结构*primary key*unique key*index key注意:foreign key不是用来加速查询用的,不在我们的而研究范围之内上面的三种key,前面两种除了可以增加查询速度之外各自还具有约束条件,而最后一种indexkey没有任何的约束条件,只是用来帮助你快速查询数据

索引本质

通过不断的缩小想要的数据范围筛选出最终的结果,同时将随机事件(一页一页的翻)变成顺序事件(先找目录、找数据)也就是说有了索引机制,我们可以总是用一种固定的方式查找数据一张表中可以有多个索引(多个目录)索引虽然能够帮助你加快查询速度但是也有缺点
1 当表中有大量数据存在的前提下 创建索引速度会很慢2 在索引创建完毕之后 对表的查询性能会大幅度的提升 但是写的性能也会大幅度的降低ps:所以索引不要随意的创建!!!

b+树

"""只有叶子节点存放的是真实的数据 其他节点存放的是虚拟数据 仅仅是用来指路的树的层级越高查询数据所需要经历的步骤就越多(树有几层查询数据就需要几步)一个磁盘块存储是有限制的为什么建议你将id字段作为索引    占得空间少 一个磁盘块能够存储的数据多    那么久降低了树的高度 从而减少查询次数"""

聚集索引(primary key)

聚集索引指的就是主键 Innodb  只有两个文件  直接将主键存放在了idb表中 MyIsam  三个文件  单独将索引存在一个文件

辅助索引(unique,index)

查询数据的时候不可能一直使用到主键,也有可能会用到name, password等其他字段那么这个时候你是没有办法利用聚集索引。这个时候你就可以根据情况给其他字段设置辅助索引(也是一个b + 树)
"""叶子节点存放的是数据对应的主键值    先按照辅助索引拿到数据的主键值    之后还是需要去主键的聚集索引里面查询数据"""

覆盖索引

在辅助索引的叶子节点就已经拿到了需要的数据
# 给name设置辅助索引select name from user where name = ‘jason‘;# 非覆盖索引select age from user where name = ‘jason‘;

测试索引是否有效的代码

** 准备 **

# 1. 准备表create table s1(    id int,    name varchar(20),    gender char(6),    email varchar(50));# 2. 创建存储过程,实现批量插入记录delimiter $$  # 声明存储过程的结束符号为$$create procedure auto_insert1()BEGINdeclare i int default 1;while (i < 3000000)doinsert into s1 values(i, ‘jason‘, ‘male‘, concat(‘jason‘, i, ‘@oldboy‘));set i = i + 1;end while ;END$$  # $$结束delimiter;  # 重新声明分号为结束符号# 3. 查看存储过程show create procedure auto_insert1\G# 4. 调用存储过程call auto_insert1();# 表没有任何索引的情况下select * from s1 where id = 30000;# 避免打印带来的时间损耗select count(id) from s1 where id = 30000;select count(id) from s1 where id = 1;# 给id做一个主键alter table s1 add primary key(id);  # 速度很慢select count(id) from s1 where id = 1;  # 速度相较于未建索引之前两者差着数量级select count(id) from s1 where name = ‘jason‘  # 速度仍然很慢"""范围问题"""# 并不是加了索引,以后查询的时候按照这个字段速度就一定快select count(id) from s1 where id > 1;  # 速度相较于id = 1慢了很多select count(id) from s1 where id > 1 and id < 3;select count(id) from s1 where id > 1 and id < 10000;select count(id) from s1 where id != 3;alter table s1 drop primary key;  # 删除主键 单独再来研究name字段select count(id) from s1 where name = ‘jason‘;  # 又慢了create index idx_name on s1(name);  # 给s1表的name字段创建索引select count(id) from s1 where name = ‘jason‘  # 仍然很慢!!!"""再来看b+树的原理,数据需要区分度比较高,而我们这张表全是jason,根本无法区分那这个树其实就建成了“一根棍子”"""select count(id) from s1 where name = ‘xxx‘;# 这个会很快,我就是一根棍,第一个不匹配直接不需要再往下走了select count(id) from s1 where name like ‘xxx‘;select count(id) from s1 where name like ‘xxx%‘;select count(id) from s1 where name like ‘%xxx‘;  # 慢 最左匹配特性# 区分度低的字段不能建索引drop index idx_name on s1;# 给id字段建普通的索引create index idx_id on s1(id); select count(id) from s1 where id = 3;  # 快了select count(id) from s1 where id * 12 = 3;  # 慢了  索引的字段一定不要参与计算drop index idx_id on s1;select count(id) from s1 where name = ‘jason‘ and gender = ‘male‘ and id = 3 and email = ‘xxx‘;# 针对上面这种连续多个and的操作,mysql会从左到右先找区分度比较高的索引字段,先将整体范围降下来再去比较其他条件create index idx_name on s1(name);select count(id) from s1 where name = ‘jason‘ and gender = ‘male‘ and id = 3 and email = ‘xxx‘;  # 并没有加速drop index idx_name on s1;# 给name,gender这种区分度不高的字段加上索引并不难加快查询速度create index idx_id on s1(id);select count(id) from s1 where name = ‘jason‘ and gender = ‘male‘ and id = 3 and email = ‘xxx‘;  # 快了  先通过id已经讲数据快速锁定成了一条了select count(id) from s1 where name = ‘jason‘ and gender = ‘male‘ and id > 3 and email = ‘xxx‘;  # 慢了  基于id查出来的数据仍然很多,然后还要去比较其他字段drop index idx_id on s1create index idx_email on s1(email);select count(id) from s1 wherename = ‘jason‘ and gender = ‘male‘ and id > 3 and email = ‘xxx‘;  # 快 通过email字段一剑封喉#### 联合索引select count(id) from s1 wherename = ‘jason‘ and gender = ‘male‘ and id > 3 and email = ‘xxx‘;# 如果上述四个字段区分度都很高,那给谁建都能加速查询# 给email加然而不用email字段select count(id) from s1 wherename = ‘jason‘ and gender = ‘male‘ and id > 3;# 给name加然而不用name字段select count(id) from s1 where gender = ‘male‘ and id > 3;# 给gender加然而不用gender字段select count(id) from s1 where id > 3;# 带来的问题是所有的字段都建了索引然而都没有用到,还需要花费四次建立的时间create index idx_all on s1(email, name, gender, id);  # 最左匹配原则,区分度高的往左放select count(id) from s1 wherename = ‘jason‘ and gender = ‘male‘ and id > 3 and email = ‘xxx‘;  # 速度变快

相关推荐