关于MySQL 大批量插入时如何过滤掉重复数据

作者:佚名 时间:2024-01-17 10:42:51 

前言:

加班原因是上线,解决线上数据库存在重复数据的问题,发现了程序的bug,很好解决,有点问题的是,修正线上的重复数据。

线上库有6个表存在重复数据,其中2个表比较大,一个96万+、一个30万+,因为之前处理过相同的问题,就直接拿来了上次的Python去重脚本,脚本很简单,就是连接数据库,查出来重复数据,循环删除。

emmmm,但是这个效率嘛,实在是太低了,1秒一条,重复数据大约2万+,预估时间大约在8个小时左右。。。

盲目依靠前人的东西,而不去自己思考是有问题的!总去想之前怎么可以,现在怎么不行了,这也是有问题的!我发现,最近确实状态不太对,失去了探索和求知的欲望,今天算是一个警醒,颇有迷途知返的感觉。

言归正传,下面详细介绍去重步骤。

一、发现问题


CREATE TABLE `animal` (  
 `id` int(11) NOT NULL AUTO_INCREMENT,  
 `name` varchar(20) DEFAULT NULL,  
 `age` int(11) DEFAULT NULL,  
 PRIMARY KEY (`id`)  
) ENGINE=InnoDB AUTO_INCREMENT=1 DEFAULT CHARSET=utf8 COLLATE=utf8_bin;  
INSERT INTO `pilipa_dds`.`student` (`id`, `name`, `age`) VALUES ('1', 'cat', '12');  
INSERT INTO `pilipa_dds`.`student` (`id`, `name`, `age`) VALUES ('2', 'dog', '13');  
INSERT INTO `pilipa_dds`.`student` (`id`, `name`, `age`) VALUES ('3', 'camel', '25');  
INSERT INTO `pilipa_dds`.`student` (`id`, `name`, `age`) VALUES ('4', 'cat', '32');  
INSERT INTO `pilipa_dds`.`student` (`id`, `name`, `age`) VALUES ('5', 'dog', '42');

目标:我们要去掉name相同的数据。

先看看哪些数据重复了


SELECT name,count( 1 )  
FROM  
student  
GROUP BY  
NAME  
HAVING  
count( 1 ) > 1;

输出:

name count(1) cat 2 dog 2

namecatdog的数据重复了,每个重复的数据有两条;


Select * From 表 Where 重复字段 In (Select 重复字段 From 表 Group By 重复字段 Having Count(1)>1)

二、删除全部重复数据,一条不留

直接删除会报错


DELETE  
FROM  
student  
WHERE  
NAME IN (  
SELECT NAME  
FROM  
 student  
GROUP BY  
NAME  
HAVING  
count( 1 ) > 1)

报错:


1093 - You can't specify target table 'student' for update in FROM clause, Time: 0.016000s

原因是:更新这个表的同时又查询了这个表,查询这个表的同时又去更新了这个表,可以理解为死锁。mysql不支持这种更新查询同一张表的操作

解决办法:把要更新的几列数据查询出来做为一个第三方表,然后筛选更新。


DELETE  
FROM  
student  
WHERE  
NAME IN (  
SELECT  
 t.NAME  
FROM  
( SELECT NAME FROM student GROUP BY NAME HAVING count( 1 ) > 1 ) t)

三、删除表中删除重复数据,仅保留一条

在删除之前,我们可以先查一下,我们要删除的重复数据是啥样的


SELECT  
*  
FROM  
student  
WHERE  
id NOT IN (  
SELECT  
 t.id  
FROM  
( SELECT MIN( id ) AS id FROM student GROUP BY `name` ) t  
)

啥意思呢,就是先通过name分组,查出id最小的数据,这些数据就是我们要留下的火种,那么再查询出id不在这里面的,就是我们要删除的重复数据。

四、开始删除重复数据,仅留一条

很简单,刚才的select换成delete即可


DELETE  
FROM  
student  
WHERE  
id NOT IN (  
SELECT  
 t.id  
FROM  
( SELECT MIN( id ) AS id FROM student GROUP BY `name` ) t  
)

90万+的表执行起来超级快。

来源:https://database.51cto.com/art/202109/682190.htm

标签:MySQL过滤重复数据
0
投稿

猜你喜欢

  • 深入浅析ImageMagick命令执行漏洞

    2022-07-21 11:50:46
  • Python使用matplotlib绘制随机漫步图

    2022-02-20 08:34:43
  • MySQL和SQLServer的比较

    2024-01-15 00:30:39
  • 微信小程序实现简单计算器与秒表

    2024-04-18 09:31:23
  • python flask中动态URL规则详解

    2021-08-18 15:51:23
  • SQL中exists的使用方法

    2011-12-01 08:36:07
  • asp 快钱网关接口 支付宝接口 财付通接口代码

    2011-03-08 10:55:00
  • PyCharm中关于安装第三方包的三个建议

    2022-03-25 20:08:41
  • bat和python批量重命名文件的实现代码

    2023-10-07 02:11:53
  • Python代码中引用已经写好的模块、方法的两种方式

    2021-04-20 05:45:14
  • python中的selenium实现自动向下滚动页面并指定最大滑动距离

    2021-09-04 20:44:03
  • python3 property装饰器实现原理与用法示例

    2021-07-10 05:02:28
  • Python实现socket非阻塞通讯功能示例

    2022-05-16 03:18:25
  • Python实现Socket通信建立TCP反向连接

    2023-11-13 04:20:19
  • Oracle也有注入漏洞

    2010-07-23 13:03:00
  • linux下python中文乱码解决方案详解

    2023-09-01 03:53:04
  • mysql存储过程基础之遍历多表记录后插入第三方表中详解

    2024-01-24 12:59:27
  • Python提高运行速度工具之Pandarallel的使用教程

    2021-07-16 20:14:09
  • python re的findall和finditer的区别详解

    2022-05-19 23:04:33
  • MySQL由浅入深探究存储过程

    2024-01-14 09:43:04
  • asp之家 网络编程 m.aspxhome.com