苹果的speech框架为ios应用提供了强大的语音识别功能,通过请求授权、配置识别任务及处理结果即可实现语音转文字。一、需在info.plist中添加nsmicrophoneusagedescription和nsspeechrecognitionusagedescription权限描述,并在代码中分别请求麦克风和语音识别授权;二、使用sfspeechaudiobufferrecognitionrequest实时识别音频流,配置avaudioengine录音并启动识别任务,可指定语言为中文;三、注意事项包括:识别语言默认非中文需手动设置、后台运行需配置但受限、依赖网络连接、长时间录音建议分段处理、可通过shouldreportpartialresults控制中间结果反馈以优化延迟。
☞☞☞AI 智能聊天, 问答助手, AI 智能搜索, 免费无限量使用 DeepSeek R1 模型☜☜☜

苹果的Speech框架为iOS应用提供了强大的语音识别功能,开发者可以通过它轻松实现将语音转文字的功能。集成的关键在于请求授权、配置识别任务以及处理结果。

在使用Speech框架前,需要先在Info.plist文件中添加对应的权限描述,包括麦克风和语音识别权限:

NSMicrophoneUsageDescription(用于录音) NSSpeechRecognitionUsageDescription(用于语音识别) 然后在代码中请求授权:
import Speech
import AVFoundation
func requestAuthorization() {
SFSpeechRecognizer.requestAuthorization { authStatus in
switch authStatus {
case .authorized:
print("语音识别已授权")
case .denied:
print("用户拒绝了语音识别权限")
case .restricted, .notDetermined:
print("权限未确定或受限")
@unknown default:
break
}
}
// 请求麦克风权限
AVAudioSession.sharedInstance().requestRecordPermission { granted in
if granted {
print("麦克风权限已开启")
} else {
print("麦克风权限被拒绝")
}
}
}这部分是必须步骤,否则无法进行后续录音和识别。

使用SFSpeechAudioBufferRecognitionRequest来实时识别音频流。以下是一个基本的录音+识别流程示例:
import Foundation
import Speech
import AVFoundation
var audioEngine = AVAudioEngine()
var recognitionRequest: SFSpeechAudioBufferRecognitionRequest?
var speechRecognizer = SFSpeechRecognizer(locale: Locale(identifier: "zh-CN")) // 可指定语言
func startRecording() throws {
guard let node = audioEngine.inputNode as? AVAudioInputNode else { return }
recognitionRequest = SFSpeechAudioBufferRecognitionRequest()
guard let request = recognitionRequest else { return }
request.shouldReportPartialResults = true // 开启部分结果返回
let recordingFormat = node.outputFormat(forBus: 0)
node.installTap(onBus: 0, bufferSize: 1024, format: recordingFormat) { buffer, _ in
request.append(buffer)
}
audioEngine.prepare()
try audioEngine.start()
SFSpeechRecognizer().recognitionTask(with: request) { result, error in
guard let result = result else {
if let error = error {
print("识别错误:$error)")
}
return
}
let bestString = result.bestTranscription.formattedString
print("识别结果:$bestString)")
if result.isFinal {
self.audioEngine.stop()
node.removeTap(onBus: 0)
self.recognitionRequest = nil
}
}
}这段代码会从麦克风获取音频流,并持续输出识别结果。你可以根据实际需求决定是否在识别完成后停止录音。
Locale(identifier: "zh-CN")指定中文识别。shouldReportPartialResults控制是否实时反馈中间结果。基本上就这些。虽然看起来有点复杂,但只要按部就班处理权限和音频流,就能顺利跑起来。
以上就是如何在iOS应用中集成AI语音识别 iOS集成Speech框架的代码示例的详细内容,更多请关注php中文网其它相关文章!
每个人都需要一台速度更快、更稳定的 PC。随着时间的推移,垃圾文件、旧注册表数据和不必要的后台进程会占用资源并降低性能。幸运的是,许多工具可以让 Windows 保持平稳运行。
Copyright 2014-2025 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号