大文件去重问题

情景:当一个文件非常大,而内存无法一次性处理时,怎么对它进行有效的去重操作

打开大文件,每次只读一行;

对读入的行字符串hash(string) = F(string) mod x, x要保证mod完之后不冲突,将此字符串写入对应号码的文件中;

....

处理完之后,我们对大小超出一行的文件进行去重;

最后再读取逐个文件,写入到外存中的一个大文件中。

或者,我们可以对每个小文件只读取其第一行(后面的行都是经过计算后重复的),写入结果文件中。

这样就避免了使用map时内存无法存储海量的数据的问题。

全部评论

相关推荐

点赞 评论 收藏
分享
09-24 12:15
门头沟学院 C++
Brooks178:【DJI 大疆创新】同学您好!感谢您关注大疆创新-"拓疆者"校园招聘并投递后端开发工程师(互联网事业部-深圳)。经过慎重考虑,我们认为目前您可能不是最适合该职位的人选,因此无法为您继续推进该职位的后续安排。我们会将您的信息保留在人才库中,以便未来有合适机会时再与您联系。再次感谢您的信任与参与,祝您求职顺利!
点赞 评论 收藏
分享
点赞 收藏 评论
分享
牛客网
牛客企业服务