我正在寻找一种方法来寻找SQL服务器的瓶颈,似乎超过32 to的内存和超过32个旋转器在8个核心上是不够的。是否有任何指标、最佳实践或硬件比较(即每秒事务)?我们每天的关闭需要几个小时,如果可能的话,我希望在几分钟内或实时完成。我无法合并超过12000行/秒的数据。现在,我不得不将流量分割到多台服务器上,但对于大约50 it的数据库来说,这是一个合适的解决方案吗?Merge被封装在SP中,并且尽可能地保持简单-去重输入,插入新行,更新现有行。我发现我们在单次合并中放入的行数越多,每秒得到的行数就越多。应用服务器在更多的线程中运行,并使用其专用服务器上的所有内存和处理器。
发布于 2010-11-18 08:12:39
遵循像Waits and Queues这样的方法来识别瓶颈。这正是设计的目的。一旦您确定了瓶颈,您还可以判断是否存在硬件配置和校准问题(如果是,则哪个硬件是瓶颈),或者是否存在其他问题。
发布于 2010-12-19 22:18:20
基本思想是避免必须对磁盘进行随机访问,包括读取和写入。如果不做任何分析,一个50 GB的数据库至少需要50 GB的ram。然后,您必须确保索引位于与数据和事务日志不同的磁盘轴上,尽可能晚地写入,并且关键表被拆分到多个磁盘轴上。这些都是你做的吗?
https://stackoverflow.com/questions/4210488
复制相似问题