Web Audio API: How to play a stream of MP3 chunks(Web Audio API:如何播放MP3块流)
本文介绍了Web Audio API:如何播放MP3块流的处理方法,对大家解决问题具有一定的参考价值,需要的朋友们下面随着小编来一起学习吧!
问题描述
因此,我尝试使用Web Audio API
解码和amp;播放使用Node.js&;Socket.IO流式传输到浏览器的MP3文件块。
在此上下文中,我唯一的选择是为接收到的每个音频数据块创建一个新的AudioBufferSourceNode
,还是可以为所有块创建一个AudioBufferSourceNode
并简单地将新的音频数据附加到源节点的buffer
属性的末尾?
目前,我就是这样接收MP3块的,对它们进行解码并安排播放时间。我已验证正在接收的每个块都是"有效的MP3块",并且正在由Web Audio API成功解码。
audioContext = new AudioContext();
startTime = 0;
socket.on('chunk_received', function(chunk) {
audioContext.decodeAudioData(toArrayBuffer(data.audio), function(buffer) {
var source = audioContext.createBufferSource();
source.buffer = buffer;
source.connect(audioContext.destination);
source.start(startTime);
startTime += buffer.duration;
});
});
任何有关如何最好地使用新音频数据"更新"Web Audio API播放的建议或见解都将不胜感激。
推荐答案
不能,AudioBufferSourceNode不能重用,也不能push
放到AudioBuffer上。它们的长度是不变的。
这篇关于Web Audio API:如何播放MP3块流的文章就介绍到这了,希望我们推荐的答案对大家有所帮助,也希望大家多多支持编程学习网!
沃梦达教程
本文标题为:Web Audio API:如何播放MP3块流
基础教程推荐
猜你喜欢
- 动态更新多个选择框 2022-01-01
- 当用户滚动离开时如何暂停 youtube 嵌入 2022-01-01
- 在for循环中使用setTimeout 2022-01-01
- 有没有办法使用OpenLayers更改OpenStreetMap中某些要素 2022-09-06
- 角度Apollo设置WatchQuery结果为可用变量 2022-01-01
- 响应更改 div 大小保持纵横比 2022-01-01
- 悬停时滑动输入并停留几秒钟 2022-01-01
- 在 JS 中获取客户端时区(不是 GMT 偏移量) 2022-01-01
- 我什么时候应该在导入时使用方括号 2022-01-01
- Karma-Jasmine:如何正确监视 Modal? 2022-01-01