下面讲讲关于处理MySQL大量数据去重的简单方法,文字的奥妙在于贴近主题相关。所以,闲话就不谈了,我们直接看下文吧,相信看完处理MySQL大量数据去重的简单方法这篇文章你一定会有所受益。
因为有大量的重复数据,所以选择的去重方法是通过聚合函数建立一个新的表,然后重命名。sql代码如下:
create table tmp select * from table_name group by column1,column2;
然后呢,因为删除过大量数据,所以id都快到600000了。。。看着太碍眼了,所以把id变成从1 开始了。方法是先把id字段删除了,然后再增加id字段并设为自增长,好了,终于看着舒心了。。。三十多万的数据去重后大概十八条数据,用时70s,估计几千万数据的时候我就该哭了,anyway,到时再说,继续想想有什么好办法。
注意:如果之前是按id排序的,改为从1开始后,不会和之前的顺序一样。会按照第二个字段重新排序的。
对于以上处理MySQL大量数据去重的简单方法相关内容,大家还有什么不明白的地方吗?或者想要了解更多相关,可以继续关注我们的行业资讯板块。
免责声明:本站发布的内容(图片、视频和文字)以原创、转载和分享为主,文章观点不代表本网站立场,如果涉及侵权请联系站长邮箱:is@yisu.com进行举报,并提供相关证据,一经查实,将立刻删除涉嫌侵权内容。