通常,我们在需要保证代码在多个异步处理之后执行,会用到:
Promise.all(promises: []).then(fun: function);
Promise.all
可以保证,promises
数组中所有promise对象都达到resolve状态,才执行then
回调。
这时候考虑一个场景:如果你的promises
数组中每个对象都是http请求,或者说每个对象包含了复杂的调用处理。而这样的对象有几十万个。
那么会出现的情况是,你在瞬间发出几十万http请求(tcp连接数不足可能造成等待),或者堆积了无数调用栈导致内存溢出。
这时候,我们就需要考虑对Promise.all
做并发限制。
Promise.all
并发限制指的是,每个时刻并发执行的promise数量是固定的,最终的执行结果还是保持与原来的Promise.all
一致。
我们知道,promise并不是因为调用Promise.all
才执行,而是在实例化promise对象的时候就执行了,在理解这一点的基础上,要实现并发限制,只能从promise实例化上下手。
换句话说,就是把生成promises
数组的控制权,交给并发控制逻辑。
这里我并不打算一步步实现这个这个功能,npm中有很多实现这个功能的第三方包,比如async-pool、es6-promise-pool、p-limit,这里我直接拿async-pool的代码来分析一下实现原理。
代码很简单,去掉不必要的代码,加上自己的注释,大概内容如下:
function asyncPool(poolLimit, array, iteratorFn) {
let i = 0;
const ret = [];
const executing = [];
const enqueue = function () {
// 边界处理,array为空数组
if (i === array.length) {
return Promise.resolve();
}
// 每调一次enqueue,初始化一个promise
const item = array[i++];
const p = Promise.resolve().then(() => iteratorFn(item, array));
// 放入promises数组
ret.push(p);
// promise执行完毕,从executing数组中删除
const e = p.then(() => executing.splice(executing.indexOf(e), 1));
// 插入executing数字,表示正在执行的promise
executing.push(e);
// 使用Promise.rece,每当executing数组中promise数量低于poolLimit,就实例化新的promise并执行
let r = Promise.resolve();
if (executing.length >= poolLimit) {
r = Promise.race(executing);
}
// 递归,直到遍历完array
return r.then(() => enqueue());
};
return enqueue().then(() => Promise.all(ret));
}
因为是promise加上递归,所以在代码注释上不太好标注执行顺序,但是大概的逻辑可以总结为:
array
第1个元素开始,初始化promise
对象,同时用一个executing
数组保存正在执行的promisepoolLimt
Promise.race
,获得executing
中promise的执行情况,当有一个promise执行完毕,继续初始化promise并放入executing
中Promise.all
返回使用方式就是:
const timeout = i => new Promise(resolve => setTimeout(() => resolve(i), i));
return asyncPool(2, [1000, 5000, 3000, 2000], timeout).then(results => {
...
});
所谓promise并发限制,其实根源上就是控制promise的实例化。如果是通过第三方函数,那么就把创建promise的控制权交给第三方即可。
然而这样的实现效果,本质上来说已经抛弃了Promise.all
而另辟蹊径。所以期待有一天promise标准能提供这个功能