首先创建AudioContext作为入口,在用户交互中启动以避免自动播放限制,接着用fetch加载音频并decodeAudioData解码,通过BufferSourceNode播放;可串联GainNode和BiquadFilterNode实现音量调节与低通滤波;利用AnalyserNode获取频域数据用于canvas可视化;结合getUserMedia接入麦克风流实现录音或实时处理;所有操作基于节点连接机制,构建完整的音频处理链。

JavaScript 可以通过 Web Audio API 实现强大的音频处理功能,比如播放、分析、可视化、滤波、混音等。这个 API 提供了高精度的音频控制能力,适用于音乐应用、游戏音效、语音处理等场景。
创建音频上下文
所有 Web Audio 操作都从 AudioContext 开始。它是整个音频处理图的入口:
const audioContext = new (window.AudioContext || window.webkitAudioContext)();
建议在用户交互(如点击)中启动上下文,避免浏览器自动播放策略限制:
document.querySelector(‘button’).addEventListener(‘click’, () => {
if (audioContext.state === ‘suspended’) {
audioContext.resume();
}
});
加载和播放音频文件
使用 fetch 加载音频,再用 decodeAudioData 解码:
立即学习“Java免费学习笔记(深入)”;
async function loadAndPlaySound(url) {
const response = await fetch(url);
const arrayBuffer = await response.arrayBuffer();
const audioBuffer = await audioContext.decodeAudioData(arrayBuffer);
const source = audioContext.createBufferSource();
source.buffer = audioBuffer;
source.connect(audioContext.destination);
source.start();
}
audioBuffer 是解码后的原始音频数据,可重复使用;BufferSourceNode 控制播放。
添加效果:滤波与增益
Web Audio API 支持构建音频节点链。例如,给声音加低通滤波和音量控制:

一键操作,智能生成专业级PPT
37
查看详情
const gainNode = audioContext.createGain();
gainNode.gain.value = 0.7; // 音量 70%
const filterNode = audioContext.createBiquadFilter();
filterNode.type = ‘lowpass’;
filterNode.frequency.value = 1000; // 截止频率 1kHz
source.connect(gainNode);
gainNode.connect(filterNode);
filterNode.connect(audioContext.destination);
你可以串联多个节点实现混响、压缩、失真等效果。
实时音频分析
使用 AnalyserNode 获取音频频域或时域数据,适合做可视化:
const analyser = audioContext.createAnalyser();
analyser.fftSize = 2048;
source.connect(analyser);
analyser.connect(audioContext.destination);
const bufferLength = analyser.frequencyBinCount;
const frequencyData = new Uint8Array(bufferLength);
function draw() {
requestAnimationFrame(draw);
analyser.getByteFrequencyData(frequencyData);
// 将 frequencyData 绘制到 canvas
}
draw();
处理麦克风输入
结合 navigator.mediaDevices.getUserMedia 获取麦克风流:
navigator.mediaDevices.getUserMedia({ audio: true })
.then(stream => {
const source = audioContext.createMediaStreamSource(stream);
source.connect(audioContext.destination); // 直接监听
// 或连接分析器、录制器等
});
可用于语音识别、变声、录音等场景。
基本上就这些。Web Audio API 灵活但细节多,关键是理解音频节点之间的连接机制。掌握上下文、源节点、效果节点和输出目标的关系,就能构建复杂的音频处理流程。
大家都在看:
JavaScript 的递归函数在引擎内部是如何被优化的?
JavaScript中的数字精度问题如何解决?
JavaScript中的国际化(i18n)与本地化(l10n)如何实现?
什么是 JavaScript 的私有类字段,它与 TypeScript 的 private 修饰符有何本质区别?































暂无评论内容