正如之前的一个问题所讨论的那样,我已经构建了一个原型(使用MVC Web API,NAudio和NAudio.Lame),它将实时低质量音频转换为mp3.源流是PCM:8K,16位,单声道,我正在使用html5的音频标签.
在这两种浏览器和IE11存在15-34秒的延迟(高延迟)音频从中,我告诉浏览器听说过,是我们的最终用户无法接受的.理想情况下,延迟不会超过5秒.即使在我的音频标签中使用preload ="none"属性,也会发生延迟.
仔细观察这个问题,似乎两个浏览器在收到~32K的音频数据之前不会开始播放音频.考虑到这一点,我可以通过更改Lame的MP3'比特率'设置来影响延迟.但是,如果我减少延迟(通过向浏览器发送更多数据以获得相同长度的音频),我将在稍后介绍音频丢失.
例子:
如果我使用Lame的V0编码,延迟将近34秒,这需要几乎0.5 MB的源音频.
如果我使用Lame的ABR_32编码,我可以将延迟减少到10-15秒,但我将在整个听力会话中遇到暂停和辍学.
问题:
任何想法如何最小化启动延迟(延迟)?
我是否应该继续调查各种Lame'预设'以期选择"正确"的?
是不是 MP3 不是直播的最佳格式?
切换到Ogg/Vorbis(或Ogg/OPUS)会有帮助吗?
我们是否需要放弃 HTML5的音频标签并使用Flash或Java小程序?
谢谢.
您无法减少延迟,因为您无法控制浏览器代码和缓冲大小.HTML5规范没有强制执行任何约束,因此我没有看到任何改进的原因.
但是,您可以使用webaudio API实现一个解决方案(这很简单),您可以自己处理流式传输.
如果您可以将固定大小的MP3块分开(以便事先知道每个MP3块大小,或者至少在接收时知道),那么您可以使用20行代码进行实时流式传输.块大小将是您的延迟.
关键是使用AudioContext :: decodeAudioData.
// Fix up prefixing window.AudioContext = window.AudioContext || window.webkitAudioContext; var context = new AudioContext(); var offset = 0; var byteOffset = 0; var minDecodeSize = 16384; // This is your chunk size var request = new XMLHttpRequest(); request.onprogress = function(evt) { if (request.response) { var size = request.response.length - byteOffset; if (size < minDecodeSize) return; // In Chrome, XHR stream mode gives text, not ArrayBuffer. // If in Firefox, you can get an ArrayBuffer as is var buf; if (request.response instanceof ArrayBuffer) buf = request.response; else { ab = new ArrayBuffer(size); buf = new Uint8Array(ab); for (var i = 0; i < size; i++) buf[i] = request.response.charCodeAt(i + byteOffset) & 0xff; } byteOffset = request.response.length; context.decodeAudioData(ab, function(buffer) { playSound(buffer); }, onError); } }; request.open('GET', url, true); request.responseType = expectedType; // 'stream' in chrome, 'moz-chunked-arraybuffer' in firefox, 'ms-stream' in IE request.overrideMimeType('text/plain; charset=x-user-defined'); request.send(null); function playSound(buffer) { var source = context.createBufferSource(); // creates a sound source source.buffer = buffer; // tell the source which sound to play source.connect(context.destination); // connect the source to the context's destination (the speakers) source.start(offset); // play the source now // note: on older systems, may have to use deprecated noteOn(time); offset += buffer.duration; }