首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >问答首页 >基于文件大小清理重复文件的脚本

基于文件大小清理重复文件的脚本
EN

Stack Overflow用户
提问于 2011-03-11 11:09:07
回答 1查看 571关注 0票数 0

我在Windows XP计算机上存储了一些备份日志文件,如下所示:

代码语言:javascript
运行
复制
1.txt
2.txt
3.txt
4.txt
5.txt

它们都有1-3个文件大小相同和2-5个文件大小相同的文件。我想存储每个集合中具有相同文件大小的一个,并删除其余的。有人能推荐一个脚本来做这件事吗?

EN

回答 1

Stack Overflow用户

回答已采纳

发布于 2011-03-11 13:58:54

来自File::Find::Duplicates的工作示例(稍作调整)可能是一个很好的开始:

代码语言:javascript
运行
复制
use File::Find::Duplicates;

my @dupes = find_duplicate_files('/tmp/dup');

foreach my $dupeset (@dupes) { 
    printf "Files %s (of size %d) hash to %s\n",
    join(", ", @{$dupeset->files}), $dupeset->size, $dupeset->md5;
}

File::Find::Duplicates在大小和MD5校验和上匹配,这可能是您想要的。

票数 3
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/5268553

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档