我有一个audioContext,它从createMediaElementSource获得它的媒体。我想解析这个音频进入AudioBuffers或类似的东西,我可以发送到另一个客户端通过websockets。
let audioElement = document.querySelector('video')
let audioContext = new window.AudioContext()
let source = audioContext.createMediaElementSource(audioElement)
source.connect(deliverToOtherClientOrSomething)
我试着制作一个AudioWorkletNode,但是这个方法的问题是它不允许我在那里结束链,而是强迫我将音频转发到其他一些AudioContext元素,这是不需要的。
发布于 2020-05-04 23:44:17
因此,最终通过使用音频worklet节点解决了这个问题。在创建AudioWorkletNode时,可以将选项传递给它。其中一个选项是numberOfOutputs。通过这样做,我的问题得到了完全的回答。
主文件
const sendProcessor = new AudioWorkletNode(audioContext, 'send-processor', {numberOfOutputs:0})
sendProcessor.port.onmessage = (event) => {
callback(event.data);
}
处理机文件
process(inputs, outputs) {
this.port.postMessage(inputs[0][0]);
return true;
}
https://stackoverflow.com/questions/61217807
复制相似问题