Linux实现文件内容去重及求交并差集
作者:楔子 时间:2023-11-02 18:55:09
一、数据去重
日常工作中,使用Hive或者Impala查询导出来可能会存在数据重复的现象,但又不想重新执行一遍查询(查询时间稍长,导出文件内容多),因此想到了使用Linux命令将文件的内容重复数据进行去除。
案例如下:
可以看到aaa.txx有3条重复数据
想去掉多余的数据,只保留一条
sort aaa.txt | uniq > bbb.txt
将aaa.txt文件中重复数据去掉,输出到bbb.txt
可以看到bbb.txt文件中只保留了一条数据
二、数据交、并、差
1)、交集(相当于user_2019 inner join user_2020 on user_2019.user_no=user_2020.user_no)
sort user_2019.txt user_2020.txt | uniq -d
2)、并集(相当于 user_2019.user_no union user_2020.user_no)
sort user_2019.txt user_2020.txt | uniq
3)、差集
user_2019.txt-user_2020.txt
sort user_2019.txt user_2020.txt user_2020.txt | uniq -u
user_2020.txt - user_2019.txt:
sort user_2020.txt user_2019.txt user_2019.txt | uniq -u
来源:https://www.cnblogs.com/kopao/p/13361801.html
标签:Linux,文件,去重,交集,并集
0
投稿
猜你喜欢
centos克隆linux虚拟机的完整步骤分享
2023-07-04 16:01:38
UCenter Home实名认证功能详解
2009-02-24 10:29:00
GoDaddy主机如何用密码保护自己的网页
2010-04-09 12:37:00
PHPCMS V9正式发布公测版本
2010-10-19 12:09:00
Win2008终端服务器远程程序配置
2009-03-06 17:06:00
微软在线业务连亏15个季度 损失4.8亿美元
2009-10-24 10:31:00
如何做一个人气旺的站 我的四个做站经验
2008-12-23 11:21:00
DEDECMS建立模型及分表操作实战分享
2009-02-24 13:59:00
网易邮箱推广的一点思考
2009-07-16 10:10:00
利用VMware IOInsight进行精细化虚拟机存储性能监控问题
2021-11-11 12:01:49
影响搜索引擎优化效果的四十九个内部因素
2008-12-12 12:01:00
正文中的优化元素
2009-01-04 16:38:00
谷歌内容定向的最佳实践
2009-03-21 10:11:00
揭密鬼页 浅析浏览器跨域安全问题
2008-10-07 18:11:00
康盛创想Discuz! X1.5正式版9月20日正式发布
2010-09-19 18:03:00
七个维护服务器安全的技巧
2008-12-30 14:22:00
centos6.5配置ssh免秘钥登陆执行pssh命令的讲解
2023-04-19 12:42:34
2008年中国搜索引擎市场呈现6大发展走向
2008-01-08 19:04:00
tomcat6.0 /7.0安装版内存溢出设置方法
2023-10-16 04:39:36
搜索引擎优化仅仅考虑搜索引擎还远远不够
2008-12-18 10:30:00