Chrome桌面端可直接用SpeechRecognition,但需HTTPS或localhost;Safari和Firefox完全不支持;无有效polyfill;最小可用需检测兼容性、设lang为zh-CN、interimResults为true并监听onresult事件。

Web Speech API 的 SpeechRecognition 在 Chrome 中能用吗?
不能直接用——SpeechRecognition 接口虽是 HTML5 Web Speech API 的一部分,但目前仅 Chromium 内核浏览器(Chrome、Edge)在桌面端默认启用,且必须通过 HTTPS 或 localhost 访问。HTTP 页面会静默失败,控制台通常只报 TypeError: SpeechRecognition is not a constructor,不提示原因。
- 移动端 Chrome(Android)支持,但需用户手动授权麦克风
- Safari 和 Firefox 完全不支持该接口,
typeof SpeechRecognition !== 'undefined'为false - 没有 polyfill 可以真正替代——语音识别依赖底层系统引擎,JS 无法纯前端模拟
怎么写一个最小可用的语音转文字功能?
核心是初始化 SpeechRecognition 实例并监听事件,不是调用某个函数就能出结果。关键步骤缺一不可:
- 先检测兼容性:
const SpeechRecognition = window.SpeechRecognition || window.webkitSpeechRecognition; - 创建实例后必须显式设置
recognition.continuous = false(默认为false,但建议写明)和recognition.interimResults = true(否则只返回最终结果,无实时反馈) -
recognition.lang = 'zh-CN'必须显式指定,否则可能按浏览器语言 fallback,中文识别率骤降 - 调用
recognition.start()后,用户需在 1 秒内开始说话,否则自动终止;中途静音超 5 秒也会结束
const recognition = new (window.SpeechRecognition || window.webkitSpeechRecognition)();
recognition.lang = 'zh-CN';
recognition.interimResults = true;
recognition.onresult = event => {
const transcript = Array.from(event.results)
.map(result => result[0].transcript)
.join('');
console.log(transcript); // 实时文本在这里
};
recognition.start();
为什么 onend 频繁触发,但没识别到文字?
这是最常被忽略的交互陷阱:onend 触发不代表识别完成,它只表示本次录音会话结束——可能是用户停顿、网络抖动、权限被拒,甚至只是后台标签页被切换导致音频输入中断。
- 不要在
onend里自动调用start(),否则可能无限重试,触发浏览器频率限制 - 真正可靠的完成信号是
onresult事件中event.results.length > 0且result.isFinal === true - 如果需要连续听写,应在
onresult的 final 结果处理完后,再调用一次start(),并加防抖(例如延迟 300ms) - 权限被拒时,
onerror会抛出error:not-allowed,此时应引导用户手动点击麦克风图标重新授权
有没有更稳的替代方案?
如果项目必须支持 Safari、Firefox 或生产环境 HTTPS 不可控,就别硬扛 Web Speech API。真实项目中更可行的是:
- 前端只做录音(
MediaRecorderAPI),把音频 Blob 上传到后端 - 后端用成熟 ASR 服务:阿里云智能语音交互、腾讯云语音识别、或开源 Whisper.cpp(自建)
- 前端轮询或 WebSocket 接收识别结果,全程可控,错误可重试,语言/模型也可动态切换
- 成本上,千次请求约几毛钱;稳定性上,比客户端 API 高一个数量级
Web Speech API 适合原型验证或内部工具,但凡涉及用户交付,就得直面它的碎片化和不可控性。










