首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >问答首页 >大数据-存储和查询

大数据-存储和查询
EN

Stack Overflow用户
提问于 2008-12-09 14:30:09
回答 5查看 2K关注 0票数 2

我们有一个大约3亿条记录的巨大数据,它将每3-6个months.We更新一次需要查询这些数据(连续,实时),以获得一些information.What是选项-一个关系型数据库(Mysql),或一些其他选项,如Hadoop.Which更好?

EN

回答 5

Stack Overflow用户

发布于 2008-12-09 14:54:28

300M的记录完全在常规关系数据库的范围内,如果正确使用索引,实时查询应该不会有问题。

Hadoop听起来有点夸张,除非你真的需要高度分布式和冗余的数据,而且如果你遇到麻烦或进行优化,它也会让你更难找到支持。

票数 4
EN

Stack Overflow用户

发布于 2008-12-09 14:37:23

嗯,我有几个PostgreSQL数据库,其中一些表包含超过700M条记录,并且它们一直在更新。

这些表中的查询速度非常快(几毫秒),并且没有任何问题。现在,我的数据非常简单,并且我对查询的字段建立了索引。

所以,我想说,这将完全取决于你将进行什么样的查询,以及你是否有足够的钱花在快速磁盘上。

票数 1
EN

Stack Overflow用户

发布于 2008-12-09 14:45:27

正如其他人所说,现代RDBMS可以处理这样的表,这取决于查询和模式(必须进行一些优化)。如果您有一个很好的键来拆分行(例如日期列),那么分区/分片技术将帮助您将表拆分为几个小的表。

你可以在我不久前提出的一个问题中阅读更多关于这些和其他缩放技术的内容-- Scaling solutions for MySQL (Replication, Clustering)

票数 1
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/352895

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档