我在一个像Friendfeed这样的社交网络上工作。当用户添加他的提要链接时,我使用cron作业来解析每个用户提要。对于大量用户来说,这是可能的吗,比如每小时解析10.000个链接,或者这会导致问题吗?如果不可能,在Friendfeed或RSS阅读器上使用什么来做到这一点?
发布于 2009-08-26 02:19:55
你可能会考虑在你的问题中添加一些关于你的硬件的信息,这对于希望建议你的实现有多容易扩展的人来说会有很大的不同。
如果你最终解析了数百万个链接,那么一个很大的cron任务将会变得有问题。我假设您正在执行以下操作(如果不是,您可能应该这样做):
这减少了每小时cron产生的汗量。
如果您正在收集数百万个提要,那么您可能希望分发这些工作,这是您在设计数据库时可能需要牢记的事情。
同样,请更新您的问题,详细说明您正在使用的硬件以及您的解决方案需要扩展的规模。没有什么是“无限”的,所以请现实一点:)
发布于 2009-08-26 02:12:33
我没有足够的信息来判断这个设计是好是坏,但要回答基本的问题,除非您正在对10k个问题进行非常密集的处理,否则对于每小时执行一次cron作业来说,这应该是微不足道的。
更多关于如何处理提要的信息,特别是流程如何根据拥有提要的用户数量和每个用户的提要数量进行扩展,将有助于为您提供进一步的建议。
发布于 2009-08-26 02:31:55
您的限制因素将是对这10,000个提要的网络访问。您可以连续处理提要,并且可能在一小时内处理10,000个提要(您需要平均约350ms的延迟)。
当然,您可能希望有多个进程同时执行这些工作,以加快速度。
https://stackoverflow.com/questions/1332016
复制相似问题