数据同步的一些思考与改进
背景
闲的没事,自己写了个小网站,搭建在自己国外的VPS上,VPS内存极小(512M),而且还要跑点别的(你懂的),内存更紧张巴巴....改造之前小网站用到了时髦的Redis,Rabbmitmq,Mysql,那时候阿里云的学生主机内存富足,装这么多中间件压力不大,可到了这样的小内存VPS上,一切都变得水土不服,索性啥中间件都不要了,数据库也不要了...国外的VPS不比国内,可能哪天说不能访问就不能访问了,VPS的磁盘存储显然不踏实.
同事给我建议了万能的Github,听过Github托管代码?,托管静态页面?,托管女装大佬?...Plan2 同步的频率
磁盘的读取速度和内存无法比,何况远程的Github,那么如果减少数据从内存到Github的同步开销呢?显然就是减少同步的频率.
一小时同步一次,应该够了....所以,在数据同步上,我设计了如下方案.
另起一个线程作为定时任务,主要负责定时数据同步
正常情况下,每小时与Github进行数据同步.