那。。。。。。。。。。。。咱们程序猿都知道,我们在做数据的时候,都要用到分页。分页一般会用到LIMIT,比如每页10行,第二页就是LIMIT 10,10,得试试在分页的时候,哪些页的情况下,会是什么样的效果呢?
- limit在1千时候速度
- limit在1百万时候速度
- limit在1千万时候速度
小总结五:LIMIT 参数1,参数2 在随着参数1(开始索引)增大时候,这个速度就会越来越慢,如果要求1秒左右返回时候的速度是100万数据,在多在大就慢了,也就是,如果10条一页,当你到第10万页之后,就会越来越慢。如果到30万页之后,可能就会到不到一般系统的3秒要求了。
数据库都建上索引了,那我插数据速度有没有影响呢,那试试
也就是说100条数据插了将近5秒,平均每秒插20条。
小总结六:也就是说,按照这样的速度插入,并发量一但大的情况下,操作起来会很慢。所以在有索引的条件下插入数据,要么索引失效,要么插入会特别慢。
分库分表的思维,一个大表返回那么多数据慢,那我把它变成若干张表,然后每张表count(*)后,我统计累加一下,一合计,就是所有数据的查询结果的条数,然后就是到第多少页,我先算一下这页在哪个库,哪张表,在从那张表读不就完了。通过之前 的总结,100万数据返回为1秒,所以就一张表里放100万个数据,1亿的数据就100张表。
- BEGIN
- DECLARE `@i` int(11);
- DECLARE `@createSql` VARCHAR(2560);
- DECLARE `@createIndexSql1` VARCHAR(2560);
- DECLARE `@createIndexSql2` VARCHAR(2560);
- DECLARE `@createIndexSql3` VARCHAR(2560);
- set `@i`=0;
- WHILE `@i`< 100 DO
- SET @createSql = CONCAT('CREATE TABLE IF NOT EXISTS yun_cashflow_',`@i`,'(
- `id` bigint(20) NOT NULL AUTO_INCREMENT,
- `userid` int(11) DEFAULT NULL,
- `type` int(11) DEFAULT NULL ,
- `operatoruserid` int(11) DEFAULT NULL ,
- `withdrawdepositid` bigint(20) DEFAULT NULL ,
- `money` double DEFAULT NULL ,
- `runid` bigint(20) DEFAULT NULL ,
- `createtime` timestamp NULL DEFAULT CURRENT_TIMESTAMP ON UPDATE CURRENT_TIMESTAMP,
- PRIMARY KEY (`id`)
- )'
- );
- prepare stmt from @createSql;
- execute stmt;
(编辑:西安站长网)
【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容!
|