对于每天必须处理至少"2-3 to“数据的业务用例,我在"Hadoop & Storm”上做了分析。
不用说,“Storm”看起来令人印象深刻,因为它在处理传入大数据方面的效率,但我不确定“Storm”是否有足够的能力处理“to”的数据,同时为我提供实时结果?
有谁能解释一下吗?
谢谢,加金德拉
发布于 2012-11-10 22:28:17
Storm是由twitter开发的。他们每天使用它处理超过8 TB的数据。听起来这对你的案子应该足够了。Afaik storm是分布式计算中最好的流媒体/实时系统。hadoop不适合它,因为作业启动时间,而不是流数据的本机处理。
事实是,当你有足够的服务器能力和存储空间时,两者都可以处理你想要的每天的数据。
https://stackoverflow.com/questions/13248967
复制相似问题