作者个人研发的在高并发场景下,提供的简单、稳定、可扩展的延迟消息队列框架,具有精准的定时任务和延迟队列处理功能。自开源半年多以来,已成功为十几家中小型企业提供了精准定时调度方案,经受住了生产环境的考验。为使更多童鞋受益,现给出开源框架地址:
https://github.com/sunshinelyz/mykit-delay
PS: 欢迎各位Star源码,也可以pr你牛逼哄哄的代码。
创建多少线程合适, 要看多线程具体的应用场景。一般来说,我们可以将程序分为:CPU密集型程序和I/O密集型程序, 而针对于CPU密集型程序和I/O密集型程序,其计算最佳线程数的方法是不同的 。
对于CPU密集型计算, 多线程本质上是提升多核CPU的利用率, 所以对于一个4核的CPU, 每个核一个线程, 理论上创建4个线程就可以了, 再多创建线程也只是增加线程切换的成本。所以, 对于CPU密集型的计算场景, 理论上“线程的量=CPU核数”就是最合适的。但是在实际工作中, 一般会将线程数量设置为“CPU核数+1”, 这样的话, 当线程因为偶尔的内存页失效或其他原因导致阻塞时, 这个额外的线程可以顶上, 从而保证CPU的利用率 。
所以,在CPU密集型的程序中,一般可以将线程数设置为CPU核数+1。
对于I/O密集型的程序,最佳的线程数是与程序中CPU计算和I/O操作的耗时比相关。总体来说,可以将其总结为如下的公式。
最佳线程数 = 1 +(I/O耗时 / CPU耗时)
我们令R=I/O耗时 / CPU耗时, 可以这样理解:当线程A执行IO操作时, 另外R个线程正好执行完各自的CPU计算。这样CPU的利用率就达到了100%。
多核CPU的最佳线程数在单核CPU最佳线程数的基础上,乘以CPU核数即可,如下所示。
最佳线程数=CPU核数 * [ 1 +(I/O耗时 / CPU耗时) ]
上述公式计算的结果为最佳理论值,实际工作中还是要通过实际压测数据来找到最佳线程数,将硬件的性能发挥到极致。