首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往
您找到你想要的搜索结果了吗?
是的
没有找到

一个60亿数据表改分区表+数据清理的改进思路(r7笔记第19天)

今天有个同学问我一个问题,也是一个实际的案例,我简单分析了一下,发现还是有很多可以考究的地方。仅做参考。 问题是,系统里目前有一个大表,因为历史数据的沉淀,目前有60多亿的数据,不是分区表,现在得到反馈说insert的操作比较满,想优化一下,同时把部分历史数据需要做一些清理。 对于这类操作,要求停机时间尽可能短,有什么好的办法。 对于这个问题看起来问题似乎是很明显的。 目前反应出的问题是Insert慢,可能有下面的几个原因。 1.表索引巨大,索引维护管理要复杂一些 2.表中可能含有一些冗余索引,或者多个索引

09

Windows系统迁移

当我们为电脑更换硬盘时(比如更换大一点的硬盘或将 HDD 更换为 SSD),往往需要考虑原硬盘上的系统和数据怎么办。重装系统是一个选择,但重装系统后还要重装系统上的软件,还要迁移数据,费时又费力。另一个方法是迁移系统,这样既不用重装系统也不用重装软件,且系统上的数据还全部保存了下来。然而 Windows 系统自身并没有提供系统迁移的工具,不像 Linux 提供了 dd 命令可以用来直接镜像整个分区从而实现系统迁移。更为遗憾的是,就算手头有 Linux 系统,直接使用 dd 对 Windows 系统进行拷贝,迁移后的 Windows 只会是蓝屏/黑屏,因为迁移系统不仅仅是拷贝分区就够了,对应的分区信息也要修改的。虽然 Linux 也是这样,但 Linux 可以通过手动引导进入系统,然后再更新引导信息,而 Windows 一旦蓝屏/黑屏就令人束手无策了,Windows Live CD 提供的引导修复功能也不尽人意。

03
领券