首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往
您找到你想要的搜索结果了吗?
是的
没有找到

一个60亿数据表改分区表+数据清理的改进思路(r7笔记第19天)

今天有个同学问我一个问题,也是一个实际的案例,我简单分析了一下,发现还是有很多可以考究的地方。仅做参考。 问题是,系统里目前有一个大表,因为历史数据的沉淀,目前有60多亿的数据,不是分区表,现在得到反馈说insert的操作比较满,想优化一下,同时把部分历史数据需要做一些清理。 对于这类操作,要求停机时间尽可能短,有什么好的办法。 对于这个问题看起来问题似乎是很明显的。 目前反应出的问题是Insert慢,可能有下面的几个原因。 1.表索引巨大,索引维护管理要复杂一些 2.表中可能含有一些冗余索引,或者多个索引

09
领券