如果准备好的数据库insert语句中有大约10k项,则这些任务为~700 k HTTP请求执行循环,并插入已处理的返回值。它们的进度显示在GUI (ObservableList项)中。这些任务需要很长时间,瓶颈似乎是等待HTTP响应时的延迟。(DB插入是在10k准备好的insert语句块中关闭自动提交时完成的)通过将请求放在单独的任务&
在这段代码中,我阅读了包含2000条条目的CSV。CSV包含要命中API的数据。api_hit()函数位于processing_chunks函数中。slice_device_list()将数据从2000个条目中分割成20个块,然后使用max_chunks = 20的thread_pool_executor,这样它就可以在这20个块上循环,并使用线程调用每个块的下面是我使用的代码:-
with open('/home/kapilsharma&
使用:在我们的产品中,我们有大约100个线程,可以访问我们试图实现的缓存。如果没有缓存,则将从数据库中获取信息,并通过写入线程更新缓存。为了实现这一点,我们计划实现multiple read and single writer,我们不能更新g++版本,因为我们使用的是g++-4.4
更新:每个工作线程都可以读写。问题陈述:我们需要实现缓存来提高性能。为此,缓存读