欢迎来到淘文阁 - 分享文档赚钱的网站! | 帮助中心 好文档才是您的得力助手!
淘文阁 - 分享文档赚钱的网站
全部分类
  • 研究报告>
  • 管理文献>
  • 标准材料>
  • 技术资料>
  • 教育专区>
  • 应用文书>
  • 生活休闲>
  • 考试试题>
  • pptx模板>
  • 工商注册>
  • 期刊短文>
  • 图片设计>
  • ImageVerifierCode 换一换

    MySQL 大批量插入如何过滤掉重复数据?.docx

    • 资源ID:73267104       资源大小:15.97KB        全文页数:16页
    • 资源格式: DOCX        下载积分:14.8金币
    快捷下载 游客一键下载
    会员登录下载
    微信登录下载
    三方登录下载: 微信开放平台登录   QQ登录  
    二维码
    微信扫一扫登录
    下载资源需要14.8金币
    邮箱/手机:
    温馨提示:
    快捷下载时,用户名和密码都是您填写的邮箱或者手机号,方便查询和重复下载(系统自动生成)。
    如填写123,账号就是123,密码也是123。
    支付方式: 支付宝    微信支付   
    验证码:   换一换

     
    账号:
    密码:
    验证码:   换一换
      忘记密码?
        
    友情提示
    2、PDF文件下载后,可能会被浏览器默认打开,此种情况可以点击浏览器菜单,保存网页到桌面,就可以正常下载了。
    3、本站不支持迅雷下载,请使用电脑自带的IE浏览器,或者360浏览器、谷歌浏览器下载即可。
    4、本站资源下载后的文档和图纸-无水印,预览文档经过压缩,下载后原文更清晰。
    5、试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓。

    MySQL 大批量插入如何过滤掉重复数据?.docx

    MySQL大批量插入,如何过滤掉重复数据?;:telami2019/mysql-removes-duplicate-data-and-keeping-only-one/加班原因是上线,解决线上数据库存在重复数据的问题,发现了程序的bug,很好解决,有点问题的是,修正线上的重复数据。线上库有6个表存在重复数据,其中2个表比较大,一个96万+、一个30万+,因为之前处理过相同的问题,就直接拿来了上次的Python去重脚本,脚本很简单,就是连接数据库,查出来重复数据,循环删除。emmmm,但是这个效率嘛,实在是太低了,1秒一条,重复数据大约2万+,预估时间大约在8个小时左右。盲目依靠前人的东西,而不去自己思考是有问题的!总去想之前怎么可以,现在怎么不行了,这也是有问题的!我发现,最近确实状态不太对,失去了探索和求知的欲望,今天算是一个警醒,颇有迷途知返的感觉。言归正传,下面详细介绍去重步骤。CREATETABLEanimal(idint(11)NOTNULLAUTO_INCREMENT,namevarchar(20)DEFAULTNULL,ageint(11)DEFAULTNULL,PRIMARYKEY(id)ENGINE=InnoDBAUTO_INCREMENT=1DEFAULTCHARSET=utf8COLLATE=utf8_bin;INSERTINTOpilipa_dds.student(id,name,age)VALUES('1','cat','12');INSERTINTOpilipa_dds.student(id,name,age)VALUES('2','dog','13');INSERTINTOpilipa_dds.student(id,name,age)VALUES('3','camel','25');INSERTINTOpilipa_dds.student(id,name,age)VALUES('4','cat','32');INSERTINTOpilipa_dds.student(id,name,age)VALUES('5','dog','42');目标:我们要去掉name相同的数据。先看看哪些数据重复了SELECTname,count(1)FROMstudentGROUPBYNAMEHAVINGcount(1)>1;输出:namecount(1)cat2dog2name为cat和dog的数据重复了,每个重复的数据有两条;Select*From表Where重复字段In(Select重复字段From表GroupBy重复字段HavingCount(1)>1)删除全部重复数据,一条不留直接删除会报错DELETEFROMstudentWHERENAMEIN(SELECTNAMEFROMstudentGROUPBYNAMEHAVINGcount(1)>1)报错:1093-Youcan'tspecifytargettable'student'forupdateinFROMclause,Time:0.016000s原因是:更新这个表的同时又查询了这个表,查询这个表的同时又去更新了这个表,可以理解为死锁。mysql不支持这种更新查询同一张表的操作解决办法:把要更新的几列数据查询出来做为一个第三方表,然后筛选更新。DELETEFROMstudentWHERENAMEIN(SELECTt.NAMEFROM(SELECTNAMEFROMstudentGROUPBYNAMEHAVINGcount(1)>1)t)删除表中删除重复数据,仅保留一条在删除之前,我们可以先查一下,我们要删除的重复数据是啥样的SELECT*FROMstudentWHEREidNOTIN(SELECTt.idFROM(SELECTMIN(id)ASidFROMstudentGROUPBYname)t)啥意思呢,就是先通过name分组,查出id最小的数据,这些数据就是我们要留下的火种,那么再查询出id不在这里面的,就是我们要删除的重复数据。开始删除重复数据,仅留一条很简单,刚才的select换成delete即可DELETEFROMstudentWHEREidNOTIN(SELECTt.idFROM(SELECTMIN(id)ASidFROMstudentGROUPBYname)t)90万+的表执行起来超级快。Alldone👏👏👏👏扫码加技术交流微信群,技术探讨信息分享学习互助,还有直播等福利活动等着你

    注意事项

    本文(MySQL 大批量插入如何过滤掉重复数据?.docx)为本站会员(安***)主动上传,淘文阁 - 分享文档赚钱的网站仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。 若此文所含内容侵犯了您的版权或隐私,请立即通知淘文阁 - 分享文档赚钱的网站(点击联系客服),我们立即给予删除!

    温馨提示:如果因为网速或其他原因下载失败请重新下载,重复下载不扣分。




    关于淘文阁 - 版权申诉 - 用户使用规则 - 积分规则 - 联系我们

    本站为文档C TO C交易模式,本站只提供存储空间、用户上传的文档直接被用户下载,本站只是中间服务平台,本站所有文档下载所得的收益归上传人(含作者)所有。本站仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。若文档所含内容侵犯了您的版权或隐私,请立即通知淘文阁网,我们立即给予删除!客服QQ:136780468 微信:18945177775 电话:18904686070

    工信部备案号:黑ICP备15003705号 © 2020-2023 www.taowenge.com 淘文阁 

    收起
    展开