apple 与普渡大学的研究团队联合推出了一项名为 darkdiff 的前沿影像技术,专为攻克智能手机在极低光照条件下成像质量差——如噪点密集、纹理丢失、细节模糊等难题而生。该方案创造性地将生成式扩散模型深度集成至相机的图像信号处理(isp)链路中,使移动设备在近乎全黑的场景下也能输出清晰、真实、富含细节的照片。

目前主流的夜景模式多依赖拍摄完成后的算法降噪,但这类后处理方式容易造成画面失真,例如出现类似油画笔触的伪影或大面积细节被“抹平”的现象。DarkDiff 的核心突破在于:AI 不再仅作为后期补救工具,而是从图像形成的源头介入——在原始传感器数据尚未被传统 ISP 流程大幅压缩或丢弃前,就已开始建模与重建。它通过大规模真实暗光图像训练,精准推断并复原因信噪比过低而未能被捕获的微小纹理与自然色彩。为避免生成内容偏离物理现实,研究者还设计了局部斑块注意力模块,强制模型聚焦于图像局部结构一致性,杜绝无依据的“脑补”式渲染。
实测环节中,团队采用索尼 A7SII 相机模拟极端弱光环境,在仅 0.033 秒的超短曝光下启用 DarkDiff,所获成片不仅结构完整、层次丰富,其综合画质甚至可比肩使用三脚架固定拍摄、曝光时长达 10 秒(即原曝光时间的 300 倍)的基准图像。

尽管性能惊艳,DarkDiff 距离搭载于 iPhone 等消费级设备仍有现实障碍。一方面,扩散模型本身计算密度高,实时运行对芯片算力与功耗控制提出严峻挑战,短期内或需借助边缘云协同推理;另一方面,当前版本在弱光条件下识别非拉丁语系文字(如中文、阿拉伯文等)的准确率仍有待提升。苹果官方尚未公布该技术的量产时间表。
源码地址:点击下载
以上就是苹果携手普渡大学研发 DarkDiff 技术,极暗环境下也能拍出“夜视仪”级大片的详细内容,更多请关注php中文网其它相关文章!
Copyright 2014-2025 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号