如何在iOS应用中集成AI语音识别 iOS集成Speech框架的代码示例

P粉602998670
发布: 2025-07-13 11:52:01
原创
146人浏览过

苹果的speech框架为ios应用提供了强大的语音识别功能,通过请求授权、配置识别任务及处理结果即可实现语音转文字。一、需在info.plist中添加nsmicrophoneusagedescription和nsspeechrecognitionusagedescription权限描述,并在代码中分别请求麦克风和语音识别授权;二、使用sfspeechaudiobufferrecognitionrequest实时识别音频流,配置avaudioengine录音并启动识别任务,可指定语言为中文;三、注意事项包括:识别语言默认非中文需手动设置、后台运行需配置但受限、依赖网络连接、长时间录音建议分段处理、可通过shouldreportpartialresults控制中间结果反馈以优化延迟。

如何在iOS应用中集成AI语音识别 iOS集成Speech框架的代码示例

苹果的Speech框架为iOS应用提供了强大的语音识别功能,开发者可以通过它轻松实现将语音转文字的功能。集成的关键在于请求授权、配置识别任务以及处理结果。

如何在iOS应用中集成AI语音识别 iOS集成Speech框架的代码示例

一、准备环境与权限申请

在使用Speech框架前,需要先在Info.plist文件中添加对应的权限描述,包括麦克风和语音识别权限:

如何在iOS应用中集成AI语音识别 iOS集成Speech框架的代码示例
  • NSMicrophoneUsageDescription(用于录音)
  • NSSpeechRecognitionUsageDescription(用于语音识别)

然后在代码中请求授权:

import Speech
import AVFoundation

func requestAuthorization() {
    SFSpeechRecognizer.requestAuthorization { authStatus in
        switch authStatus {
        case .authorized:
            print("语音识别已授权")
        case .denied:
            print("用户拒绝了语音识别权限")
        case .restricted, .notDetermined:
            print("权限未确定或受限")
        @unknown default:
            break
        }
    }

    // 请求麦克风权限
    AVAudioSession.sharedInstance().requestRecordPermission { granted in
        if granted {
            print("麦克风权限已开启")
        } else {
            print("麦克风权限被拒绝")
        }
    }
}
登录后复制

这部分是必须步骤,否则无法进行后续录音和识别。

如何在iOS应用中集成AI语音识别 iOS集成Speech框架的代码示例

二、录音并启动语音识别

使用SFSpeechAudioBufferRecognitionRequest来实时识别音频流。以下是一个基本的录音+识别流程示例:

import Foundation
import Speech
import AVFoundation

var audioEngine = AVAudioEngine()
var recognitionRequest: SFSpeechAudioBufferRecognitionRequest?
var speechRecognizer = SFSpeechRecognizer(locale: Locale(identifier: "zh-CN")) // 可指定语言

func startRecording() throws {
    guard let node = audioEngine.inputNode as? AVAudioInputNode else { return }

    recognitionRequest = SFSpeechAudioBufferRecognitionRequest()
    guard let request = recognitionRequest else { return }

    request.shouldReportPartialResults = true // 开启部分结果返回

    let recordingFormat = node.outputFormat(forBus: 0)
    node.installTap(onBus: 0, bufferSize: 1024, format: recordingFormat) { buffer, _ in
        request.append(buffer)
    }

    audioEngine.prepare()
    try audioEngine.start()

    SFSpeechRecognizer().recognitionTask(with: request) { result, error in
        guard let result = result else {
            if let error = error {
                print("识别错误:$error)")
            }
            return
        }

        let bestString = result.bestTranscription.formattedString
        print("识别结果:$bestString)")

        if result.isFinal {
            self.audioEngine.stop()
            node.removeTap(onBus: 0)
            self.recognitionRequest = nil
        }
    }
}
登录后复制

这段代码会从麦克风获取音频流,并持续输出识别结果。你可以根据实际需求决定是否在识别完成后停止录音。

三、常见问题与注意事项

  • 语音识别语言设置:默认可能不是中文,记得用Locale(identifier: "zh-CN")指定中文识别。
  • 后台运行限制:如果希望在后台继续录音识别,需配置后台模式(Background Modes),但要注意系统限制。
  • 网络依赖:Speech框架依赖苹果服务器,识别时需要联网。
  • 长时间录音优化:如果录音时间较长,建议分段处理以避免内存占用过高。
  • 识别延迟优化:可以通过调整shouldReportPartialResults控制是否实时反馈中间结果。

基本上就这些。虽然看起来有点复杂,但只要按部就班处理权限和音频流,就能顺利跑起来。

以上就是如何在iOS应用中集成AI语音识别 iOS集成Speech框架的代码示例的详细内容,更多请关注php中文网其它相关文章!

豆包AI编程
豆包AI编程

智能代码生成与优化,高效提升开发速度与质量!

下载
来源:php中文网
本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系admin@php.cn
最新问题
开源免费商场系统广告
热门教程
更多>
最新下载
更多>
网站特效
网站源码
网站素材
前端模板
关于我们 免责申明 意见反馈 讲师合作 广告合作 最新更新
php中文网:公益在线php培训,帮助PHP学习者快速成长!
关注服务号 技术交流群
PHP中文网订阅号
每天精选资源文章推送
PHP中文网APP
随时随地碎片化学习
PHP中文网抖音号
发现有趣的

Copyright 2014-2025 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号