超大的分页一般从两个方向上来解决....这条语句需要load1000000数据然后基本上全部丢弃,只取10条当然比较慢....,但是由于索引覆盖,要查询的所有字段都在索引中,所以速度会很快....从需求的角度减少这种请求…主要是不做类似的需求(直接跳转到几百万页之后的具体某一页.只允许逐页查看或者按照给定的路线走,这样可预测,可缓存)以及防止ID泄漏且连续被人恶意攻击....解决超大分页,其实主要是靠缓存,可预测性的提前查到内容,缓存至redis等k-V数据库中,直接返回即可.
【推荐】利用延迟关联或者子查询优化超多分页场景。