首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >问答首页 >如何将大型mysql转储导入hadoop?

如何将大型mysql转储导入hadoop?
EN

Stack Overflow用户
提问于 2012-11-13 22:34:48
回答 2查看 4.3K关注 0票数 4

我需要导入维基百科转储(mysql表,解压的文件需要大约50 to )到Hadoop(hbase)。现在,我首先将dump加载到mysql中,然后将数据从mysql传输到hadoop。但是将数据加载到mysql需要大量的时间--大约4-7天。是否可以将mysql转储直接加载到hadoop中(通过转储文件解析器或其他类似工具)?

EN

回答 2

Stack Overflow用户

回答已采纳

发布于 2012-11-13 23:48:24

据我所知- MySQL转储几乎完全是一组insert语句。您可以在您的映射器中解析它们,并按原样进行处理...如果你只有几个表,那么java中的硬代码解析应该很简单。

票数 2
EN

Stack Overflow用户

发布于 2012-11-15 23:08:11

使用sqoop。一个工具,用于将mysql数据导入到HDFS中,并带有map reduce作业。

这很方便。

票数 1
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/13362596

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档