首页
学习
活动
专区
工具
TVP
发布
社区首页 >问答首页 >Hadoop gzip压缩文件

Hadoop gzip压缩文件
EN

Stack Overflow用户
提问于 2011-04-12 12:00:17
回答 3查看 23K关注 0票数 19

我是hadoop新手,正在尝试处理wikipedia转储。它是一个6.7 GB的gzip压缩xml文件。我读到hadoop支持gzip压缩文件,但只能由单个作业上的映射器处理,因为只有一个映射器可以解压缩它。这似乎对处理过程施加了限制。有没有别的选择?比如将xml文件解压缩和拆分成多个块,然后用gzip重新压缩它们。

我从http://researchcomputing.blogspot.com/2008/04/hadoop-and-compressed-files.html上读到有关hadoop gzip的内容。

谢谢你的帮助。

EN

回答 3

Stack Overflow用户

发布于 2012-12-25 08:24:38

这是对HDFS最大的误解之一。

是的,压缩为gzip文件的文件不能被MapReduce拆分,但这并不意味着GZip作为编解码器在HDFS中没有价值,也不能被拆分。

作为编解码器,GZip可以与RCFiles、序列文件、Arvo文件以及更多文件格式一起使用。当Gzip编解码器在这些可拆分的格式中使用时,您可以从Gzip加上可拆分的组件中获得巨大的压缩和相当好的速度。

票数 10
EN

Stack Overflow用户

发布于 2011-04-12 23:34:46

由于编解码器的限制,无法以任何方式对GZIP文件进行分区。6.7 to真的不是很大,所以只需在一台机器上解压它(只需不到一个小时),然后将XML复制到HDFS。然后,您可以在Hadoop中处理Wikipedia XML。

Cloud9包含一个WikipediaPageInputFormat类,您可以使用它来读取Hadoop中的XML。

票数 3
EN

Stack Overflow用户

发布于 2013-10-11 09:13:22

票数 0
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/5630245

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档