处理MySQL大量数据去重的简单方法
下面讲讲关于处理MySQL大量数据去重的简单方法,文字的奥妙在于贴近主题相关。所以,闲话就不谈了,我们直接看下文吧,相信看完处理MySQL大量数据去重的简单方法这篇文章你一定会有所受益。
南沙ssl适用于网站、小程序/APP、API接口等需要进行数据传输应用场景,ssl证书未来市场广阔!成为成都创新互联的ssl证书销售渠道,可以享受市场价格4-6折优惠!如果有意向欢迎电话联系或者加微信:028-86922220(备注:SSL证书合作)期待与您的合作!
因为有大量的重复数据,所以选择的去重方法是通过聚合函数建立一个新的表,然后重命名。sql代码如下:
create table tmp select * from table_name group by column1,column2;
然后呢,因为删除过大量数据,所以id都快到600000了。。。看着太碍眼了,所以把id变成从1 开始了。方法是先把id字段删除了,然后再增加id字段并设为自增长,好了,终于看着舒心了。。。三十多万的数据去重后大概十八条数据,用时70s,估计几千万数据的时候我就该哭了,anyway,到时再说,继续想想有什么好办法。
注意:如果之前是按id排序的,改为从1开始后,不会和之前的顺序一样。会按照第二个字段重新排序的。
对于以上处理MySQL大量数据去重的简单方法相关内容,大家还有什么不明白的地方吗?或者想要了解更多相关,可以继续关注我们的行业资讯板块。
当前标题:处理MySQL大量数据去重的简单方法
分享路径:http://hbruida.cn/article/jssigc.html