OfflineAudioContext
接口是一个 AudioContext
的接口,代表由多个 AudioNode
连接在一起构成的音频处理图。与 AudioContext
标准相反的是, OfflineAudioContext
不在硬件设备渲染音频;相反,它尽可能快地生成音频,输出一个 AudioBuffer
作为结果。
构造函数
OfflineAudioContext.OfflineAudioContext()
- 创建一个新的
OfflineAudioContext
实例。
属性
从父级 AudioContext
获取属性。
OfflineAudioContext.length
只读- 代表采样帧缓冲区大小的整数。
事件处理程序
OfflineAudioContext.oncomplete
- 当进程完成时,基于事件版本的
OfflineAudioContext.startRendering()
被使用之后,EventHandler
将会被调用,complete
事件类型为OfflineAudioCompletionEvent
)被触发。
方法
从父级 AudioContext
和 EventTarget
获取方法的实现。
OfflineAudioContext.resume()
- 恢复一个被暂停的音频的时间进程。
OfflineAudioContext.suspend()
- 在指定的时间安排音频暂停时间进程,并且通过 Promise 返回。
OfflineAudioContext.startRendering()
- 开始渲染音频,考虑当前连接和当前计划的修改。这个页面涵盖基于事件的和基于 Promise 的版本。
例子
这个简单的例子中,我们声明了 AudioContext
和 OfflineAudioContext
对象。我们使用 AudioContext
去加载一个 XHR (AudioContext.decodeAudioData
)获取的音轨,然后使用 OfflineAudioContext
去渲染音频并得到一个 into an AudioBufferSourceNode
,并播放这个音轨。在离线音频处理图建立后,你需要去使用 OfflineAudioContext.startRendering
来渲染它成为 AudioBuffer
。
当 startRendering()
的 Promise 解决后,渲染也完成了,在 Promise 内可以获得输出的 AudioBuffer。
在此刻,我们创建了一个另外的音频上下文,在它里面创建了一个 AudioBufferSourceNode
,并且设置它的 buffer 为之前生成的 Promise 中的 AudioBuffer。这样它就可以作为简单标准音频图来播放了
。
注意: 为了获取可以运行的例子,请看我们在 Github 的仓库 offline-audio-context-promise (也可以看到 源代码。)
// 定义一个在线或者离线的音频上下文 var audioCtx = new AudioContext(); var offlineCtx = new OfflineAudioContext(2,44100*40,44100); source = offlineCtx.createBufferSource(); // 使用 XHR 去加载一个音轨, // 使用 decodeAudioData 去解码, // 使用 OfflineAudioContext 去渲染它 function getData() { request = new XMLHttpRequest(); request.open('GET', 'viper.ogg', true); request.responseType = 'arraybuffer'; request.onload = function() { var audioData = request.response; audioCtx.decodeAudioData(audioData, function(buffer) { myBuffer = buffer; source.buffer = myBuffer; source.connect(offlineCtx.destination); source.start(); //source.loop = true; offlineCtx.startRendering().then(function(renderedBuffer) { console.log('渲染完全成功'); var audioCtx = new (window.AudioContext || window.webkitAudioContext)(); var song = audioCtx.createBufferSource(); song.buffer = renderedBuffer; song.connect(audioCtx.destination); play.onclick = function() { song.start(); } }).catch(function(err) { console.log('渲染失败: ' + err); // 注意: 当 OfflineAudioContext 上 startRendering 被立刻调用,Promise 应该被 reject }); }); } request.send(); } // 运行 getData 去开始这个进程 getData();
备注
Specification | Status | Comment |
---|---|---|
Web Audio API OfflineAudioContext |
Working Draft | Initial definition |
浏览器兼容性
Feature | Chrome | Edge | Firefox (Gecko) | Internet Explorer | Opera | Safari (WebKit) |
---|---|---|---|---|---|---|
Basic support | 10.0webkit | (Yes) | 25.0 (25.0) | 未实现 | 15.0webkit 22 (unprefixed) |
6.0webkit |
Promise-based startRendering() |
42.0 | ? | 37.0 (37.0) | ? | ? | ? |
suspend() , resume() |
49.0 | ? | ||||
length |
51.0 | ? |
Feature | Android Webview | Firefox Mobile (Gecko) | Firefox OS | Edge | IE Mobile | Opera Mobile | Safari Mobile | Chrome for Android |
---|---|---|---|---|---|---|---|---|
Basic support | 33.0 | 26.0 | 1.2 | (Yes) | ? | ? | ? | (Yes) |
Promise-based startRendering() |
42.0 | 37.0 | 2.2 | ? | ? | ? | ? | 42.0 |
suspend() , resume() |
49.0 | ? | 49.0 | |||||
length |
51.0 | ? | 51.0 |