我正在使用一个大型数据库(一些表500000000+行)。每天使用LOAD DATA INFILE替换3-1000万行,每次导入大约100万行(因此使用CRON一天3-10次)。问题是,在进行如此大的文件导入时,MySQL消耗了80%的CPU,所有来自网站的常见查询都变得非常慢或网站性能下降。该网站运行在亚马逊的EC2 Windows2008服务器上。有谁知道如何在一个EC2实例中解决这个问题(不拆分数据库),谢谢。
实际上,这是对一家高负荷服务公司进行面试的问题。例如,我们有一个具有1TB记录的表,该表具有主b树索引。我们需要选择范围从5000到5000000的所有记录。我们不能封锁整个数据库。数据库在高负荷下运行。将大型select查询拆分为以下部分是否有意义select * from a where id >=请帮我比较一下我们使用Postgr