Linux实现文件内容去重及求交并差集

作者:楔子 时间:2023-11-02 18:55:09 

一、数据去重

日常工作中,使用Hive或者Impala查询导出来可能会存在数据重复的现象,但又不想重新执行一遍查询(查询时间稍长,导出文件内容多),因此想到了使用Linux命令将文件的内容重复数据进行去除。

案例如下:

可以看到aaa.txx有3条重复数据

Linux实现文件内容去重及求交并差集

想去掉多余的数据,只保留一条

sort aaa.txt | uniq > bbb.txt

将aaa.txt文件中重复数据去掉,输出到bbb.txt

Linux实现文件内容去重及求交并差集

可以看到bbb.txt文件中只保留了一条数据

二、数据交、并、差

1)、交集(相当于user_2019 inner join user_2020 on user_2019.user_no=user_2020.user_no)

sort user_2019.txt user_2020.txt | uniq -d

2)、并集(相当于 user_2019.user_no union user_2020.user_no)

sort user_2019.txt user_2020.txt | uniq

3)、差集

user_2019.txt-user_2020.txt

sort user_2019.txt user_2020.txt user_2020.txt | uniq -u

user_2020.txt - user_2019.txt:

sort user_2020.txt user_2019.txt user_2019.txt | uniq -u

来源:https://www.cnblogs.com/kopao/p/13361801.html

标签:Linux,文件,去重,交集,并集
0
投稿

猜你喜欢

  • centos克隆linux虚拟机的完整步骤分享

    2023-07-04 16:01:38
  • UCenter Home实名认证功能详解

    2009-02-24 10:29:00
  • GoDaddy主机如何用密码保护自己的网页

    2010-04-09 12:37:00
  • PHPCMS V9正式发布公测版本

    2010-10-19 12:09:00
  • Win2008终端服务器远程程序配置

    2009-03-06 17:06:00
  • 微软在线业务连亏15个季度 损失4.8亿美元

    2009-10-24 10:31:00
  • 如何做一个人气旺的站 我的四个做站经验

    2008-12-23 11:21:00
  • DEDECMS建立模型及分表操作实战分享

    2009-02-24 13:59:00
  • 网易邮箱推广的一点思考

    2009-07-16 10:10:00
  • 利用VMware IOInsight进行精细化虚拟机存储性能监控问题

    2021-11-11 12:01:49
  • 影响搜索引擎优化效果的四十九个内部因素

    2008-12-12 12:01:00
  • 正文中的优化元素

    2009-01-04 16:38:00
  • 谷歌内容定向的最佳实践

    2009-03-21 10:11:00
  • 揭密鬼页 浅析浏览器跨域安全问题

    2008-10-07 18:11:00
  • 康盛创想Discuz! X1.5正式版9月20日正式发布

    2010-09-19 18:03:00
  • 七个维护服务器安全的技巧

    2008-12-30 14:22:00
  • centos6.5配置ssh免秘钥登陆执行pssh命令的讲解

    2023-04-19 12:42:34
  • 2008年中国搜索引擎市场呈现6大发展走向

    2008-01-08 19:04:00
  • tomcat6.0 /7.0安装版内存溢出设置方法

    2023-10-16 04:39:36
  • 搜索引擎优化仅仅考虑搜索引擎还远远不够

    2008-12-18 10:30:00
  • asp之家 网站运营 m.aspxhome.com