首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >问答首页 >如何使用Hadoop处理视频数据

如何使用Hadoop处理视频数据
EN

Stack Overflow用户
提问于 2012-11-21 15:59:22
回答 1查看 1.2K关注 0票数 0

现在我有了一些大视频数据。我想用Map/Reduce解码hadoop中的视频数据。

我想使用的解码类库是ffmpeg。但函数av_open_input_file只能读取本地文件,不能读取HDFS上的文件。

因此,如果我想解码视频数据,我应该初始化struct AVFormatContext。现在我拿不到这个struct了。如何读取视频文件头,初始化AVFormatContext?并逐个字节地读取视频数据并最终解码?

EN

回答 1

Stack Overflow用户

发布于 2012-11-28 11:32:11

我试着对其进行分布式解码。但是ffmpeg只能解码本地视频。所以我试着加载文件头来启动解码器。最后,我失败了。然后我找到了另一个solution:fuse_dfs。它可以将HDFS挂载到本地文件系统中,同时数据也存储在分布式文件系统中。你可以在这个网站上找到一些帮助:how to mount hdfs to local file system

票数 0
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/13488722

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档