AutoGen 使用本地 LLM 时的 api_type 错误解析与解决方案

DDD
发布: 2025-08-06 12:28:01
原创
987人浏览过

AutoGen 使用本地 LLM 时的 api_type 错误解析与解决方案

本文旨在解决 Autogen 框架在使用本地大型语言模型(如 LM Studio)时遇到的 TypeError: create() got an unexpected keyword argument 'api_type' 错误。核心问题在于 Autogen 库为保持与 OpenAI API 的兼容性,已移除 config_list 中 api_type 参数的支持。教程将详细阐述错误原因,并提供移除该参数的解决方案,辅以更新后的代码示例,帮助开发者顺利配置 Autogen 与本地 LLM 的交互环境,确保代理对话的正常进行。

错误现象分析

当开发者尝试使用 autogen 框架连接本地运行的大型语言模型(llm),例如通过 lm studio 启动的 llama 2 模型时,可能会遇到如下的 typeerror 错误信息:

TypeError: create() got an unexpected keyword argument 'api_type'
登录后复制

此错误通常发生在 autogen.oai.client.py 模块内部,表明在调用 OpenAI 兼容的 API 客户端时,传递了一个不再被接受的关键字参数 api_type。尽管在 Autogen 的早期版本或某些示例中可能看到 config_list 中包含 api_type 参数,但随着库的迭代更新,其内部实现已有所调整。

错误根源:api_type 参数的移除

此 TypeError 的根本原因在于 Autogen 库近期为了更好地与 OpenAI 官方 API 保持兼容性,已经从其内部的 config_list 配置中移除了对 api_type 参数的支持。这意味着,即使您将本地 LLM 服务配置为模拟 OpenAI API 接口(例如,LM Studio 默认就提供 /v1 兼容接口),在 Autogen 的最新版本中,您也不应再显式指定 api_type: "open_ai"。Autogen 默认会根据 api_base 的格式和请求的上下文来推断 API 类型。

解决方案

解决此问题的方法非常直接:从 config_list 中的每个配置字典中移除 api_type 参数。

以下是原始的、导致错误的代码配置:

config_list = [
    {
        "api_type": "open_ai", # <-- 导致错误的参数
        "api_base": "http://localhost:1234/v1",
        "api_key": "NULL"
    }
]
登录后复制

正确的配置应移除 api_type,如下所示:

ChatX翻译
ChatX翻译

最实用、可靠的社交类实时翻译工具。 支持全球主流的20+款社交软件的聊天应用,全球200+语言随意切换。 让您彻底告别复制粘贴的翻译模式,与世界各地高效连接!

ChatX翻译 77
查看详情 ChatX翻译
config_list = [
    {
        "api_base": "http://localhost:1234/v1",
        "api_key": "NULL"
    }
]
登录后复制

请注意,对于本地 LLM 服务,api_key 通常可以设置为 "NULL" 或任意非空字符串,因为本地服务通常不进行 API 密钥验证。关键在于 api_base 必须准确指向您的本地 LLM 服务地址和端口。

完整示例代码

下面是修正后的完整 Autogen 脚本,演示了如何正确配置并使用本地 LLM:

from autogen import AssistantAgent, UserProxyAgent

# 修正后的 config_list,移除了 "api_type" 参数
config_list = [
    {
        "api_base": "http://localhost:1234/v1",  # 确保此地址指向您的本地LLM服务
        "api_key": "NULL"                       # 本地LLM通常不需要实际的API密钥
    }
]

# 配置 LLM
llm_config = {'config_list': config_list}

# 初始化 AssistantAgent
assistant = AssistantAgent(
    name="assistant",
    llm_config=llm_config
)

# 初始化 UserProxyAgent
user_proxy = UserProxyAgent(
    name="user_proxy",
    human_input_mode="NEVER",  # 示例中设置为非交互模式
    max_consecutive_auto_reply=100,
)

# 定义任务
task = """write a python method to output numbers 1 to 100"""

# 启动代理对话
user_proxy.initiate_chat(
    assistant,
    message=task
)
登录后复制

注意事项与最佳实践

  1. 版本兼容性: 软件库,尤其是像 Autogen 这样快速迭代的框架,其 API 可能会频繁更新。遇到问题时,查阅其官方文档、GitHub 仓库的最新发布说明或变更日志(如 roadmap 或 CHANGELOG 文件)是解决问题的最佳途径。本案例中,api_type 的移除正是为了与 OpenAI API 的最新规范保持一致。
  2. 本地 LLM 服务状态: 在运行 Autogen 脚本之前,请务必确认您的本地 LLM 服务(例如 LM Studio、Ollama 等)已正确启动,并且其 API 接口在 config_list 中指定的 api_base 地址和端口上可用。常见的端口号包括 8000、1234、5000 等,具体取决于您的 LLM 工具配置。
  3. 错误信息解读: 当程序抛出 TypeError 并指出“got an unexpected keyword argument”时,这通常意味着您传递了一个函数或方法不再支持的参数。这强烈暗示了 API 签名或库行为发生了变化。
  4. api_key 的作用: 尽管对于本地 LLM 服务,api_key 可以是占位符,但在连接到真正的云端 LLM 服务(如 OpenAI、Azure OpenAI 等)时,它将是身份验证的关键凭证,必须提供有效密钥。

总结

TypeError: create() got an unexpected keyword argument 'api_type' 错误是 Autogen 框架与本地 LLM 交互时常见的配置问题,其核心在于 api_type 参数在最新版本的 Autogen 中已被弃用。通过简单地从 config_list 中移除此参数,并确保本地 LLM 服务正常运行且 api_base 配置正确,即可解决此问题,使 Autogen 代理能够顺利与本地模型进行通信并执行任务。始终保持对所用库最新变化的关注,是避免此类配置错误的关键。

以上就是AutoGen 使用本地 LLM 时的 api_type 错误解析与解决方案的详细内容,更多请关注php中文网其它相关文章!

最佳 Windows 性能的顶级免费优化软件
最佳 Windows 性能的顶级免费优化软件

每个人都需要一台速度更快、更稳定的 PC。随着时间的推移,垃圾文件、旧注册表数据和不必要的后台进程会占用资源并降低性能。幸运的是,许多工具可以让 Windows 保持平稳运行。

下载
来源:php中文网
本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系admin@php.cn
最新问题
开源免费商场系统广告
热门教程
更多>
最新下载
更多>
网站特效
网站源码
网站素材
前端模板
关于我们 免责申明 举报中心 意见反馈 讲师合作 广告合作 最新更新 English
php中文网:公益在线php培训,帮助PHP学习者快速成长!
关注服务号 技术交流群
PHP中文网订阅号
每天精选资源文章推送
PHP中文网APP
随时随地碎片化学习

Copyright 2014-2025 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号