假设我有一个巨大的SQLite文件(例如,500 say)。10个不同的python
实例可以同时访问该文件,和可以更新它的不同记录吗?注意,这里的重点是不同的记录。
例如,假设SQLite文件有1M
行:
实例1将处理(并更新)行0- 100000。
实例2将处理(并更新)行100001 - 200000。
..
实例10将处理(并更新)行900001 - 1000000。
也就是说,每个python
实例只更新文件的一个唯一子集。这会起作用吗,还是我会有严重的诚信问题?
发布于 2011-06-10 04:13:42
更新,感谢AndréCaron.
可以这样做,但是读取操作只支持SQLite中的并发性,因为整个数据库都被锁定在任何写操作上。在这种情况下,SQLite引擎将返回SQLITE_BUSY状态(如果超出了访问的默认超时时间)。另外,这在很大程度上取决于如何为给定的操作系统和文件系统实现良好的文件锁定。通常,我不建议使用建议的解决方案,特别是考虑到DB文件相当大,但您可以尝试。
最好使用基于服务器进程的数据库(MySQL、PostgreSQL等)。实现所需的应用程序行为。
发布于 2011-06-10 04:21:00
有点吧。只有一个实例可以在任何时间写入,这意味着并发写入将被阻塞(引用SQLite常见问题)。您不会遇到完整性问题,但我不确定您是否能从并发性中真正受益,尽管这取决于您的写入量和读取量。
https://stackoverflow.com/questions/6301816
复制相似问题