我在一个网络项目(asp.net)中工作了大约六个月。最终产品即将上线。该项目使用SQL Server作为数据库。我们用大量数据进行了性能测试,结果表明,当数据变得太大时,性能会降低,例如200万行(超时问题,延迟响应等)。起初我们使用的是完全规范化的数据库,但现在我们由于性能问题(为了减少连接)而使其部分正常化。首先,这是正确的决定吗?另外当数据量变得非常大时,可能的解决方案是什么?
发布于 2018-06-21 16:20:37
使用SQL事件探查器和查询分析器来确定为什么在进行“模式更改”之前查询速度变慢。你所需要做的只是创建几个索引并安排“更新统计”......不过,正如我所说的,Profiler和查询分析器是了解发生了什么的最佳工具。
发布于 2018-06-21 16:35:25
根据你存储的信息类型,200万行通常不是非常大的数据库。Usualy在性能下降时应该验证你的索引策略。
https://stackoverflow.com/questions/-100000308
复制相似问题