HTML5在安卓设备上无法原生播放RTSP流——这是硬限制;因安卓WebView自5.0起移除RTSP协议栈支持,RTSP仅是控制协议,实际音视频由RTP/UDP传输,故静默失败。

HTML5 在安卓设备上**无法原生播放 RTSP 流**——这是硬限制,不是配置问题。所有“能播”的方案,本质都是在安卓 WebView 或浏览器里绕过这个限制,靠服务端转协议或前端解码实现。
为什么安卓 WebView 不支持 rtsp:// 直播地址?
RTSP 是一个控制协议(类似“遥控器”),不传输音视频数据本身;真正传流的是底层 RTP/UDP 包。而安卓 WebView(包括 Chrome for Android)从 Android 5.0 起就彻底移除了对 RTSP 协议栈的支持, 会直接静默失败,连错误事件都不触发。
- Chrome for Android、Firefox for Android、Edge for Android 全部不识别
rtsp://scheme - 即使旧版系统(如 Android 4.4)曾短暂支持,也仅限于极少数厂商定制 ROM,不可靠
- WebView 的
WebSettings.setPluginState()已废弃,无法启用任何插件补救
真正可行的安卓适配方案:HLS + hls.js(推荐)
这是目前兼容性最好、开发成本最低、且能在安卓 5.0+ 所有主流 WebView(包括 TBS、X5、Android System WebView)中稳定运行的方案。
- 用 FFmpeg 或流媒体服务器(如 Nginx-rtmp + HLS 模块)把 RTSP 转成
.m3u8,例如:ffmpeg -i rtsp://cam/0 -c:v libx264 -c:a aac -f hls -hls_time 2 -hls_list_size 3 out.m3u8 - 确保 Nginx 返回
Content-Type: application/x-mpegURL,否则 Safari 和部分安卓 WebView 会拒绝加载 - 前端不依赖原生 HLS 支持,统一用
hls.js加载:const video = document.getElementById('video'); if (Hls.isSupported()) { const hls = new Hls(); hls.loadSource('http://your-server/out.m3u8'); hls.attachMedia(video); } else if (video.canPlayType('application/vnd.apple.mpegurl')) { video.src = 'http://your-server/out.m3u8'; video.addEventListener('loadedmetadata', () => video.play()); }
低延迟场景别碰 hls.js:改用 WebRTC 网关(如 mediasoup + GStreamer)
如果要求延迟 ≤ 500ms(比如远程操控摄像头),HLS 的 4–10 秒缓冲根本不能接受。这时必须走 WebRTC,但安卓端有额外坑:
立即学习“前端免费学习笔记(深入)”;
- 需部署 WebRTC 信令服务 + STUN/TURN(否则内网设备无法连接)
- 安卓 Chrome ≥ 80 支持 WebRTC,但部分国产 WebView(如早期 X5)可能禁用
RTCPeerConnection或屏蔽getUserMedia权限 - 务必在
index.html中加:,否则缩放会破坏srcObject渲染 - 不要用
autoplay,安卓强制要求用户手势触发播放,否则play()抛NotAllowedError
真正难的从来不是“怎么让安卓播出来”,而是“怎么让不同型号、不同系统版本、不同 WebView 内核的安卓设备,在弱网、后台切换、锁屏唤醒等真实场景下持续稳定播”。协议转换层(FFmpeg / WebRTC 网关)的健壮性,远比前端 JS 行数重要得多。










