
错误现象分析
当开发者尝试使用 autogen 框架连接本地运行的大型语言模型(llm),例如通过 lm studio 启动的 llama 2 模型时,可能会遇到如下的 typeerror 错误信息:
TypeError: create() got an unexpected keyword argument 'api_type'
此错误通常发生在 autogen.oai.client.py 模块内部,表明在调用 OpenAI 兼容的 API 客户端时,传递了一个不再被接受的关键字参数 api_type。尽管在 Autogen 的早期版本或某些示例中可能看到 config_list 中包含 api_type 参数,但随着库的迭代更新,其内部实现已有所调整。
错误根源:api_type 参数的移除
此 TypeError 的根本原因在于 Autogen 库近期为了更好地与 OpenAI 官方 API 保持兼容性,已经从其内部的 config_list 配置中移除了对 api_type 参数的支持。这意味着,即使您将本地 LLM 服务配置为模拟 OpenAI API 接口(例如,LM Studio 默认就提供 /v1 兼容接口),在 Autogen 的最新版本中,您也不应再显式指定 api_type: "open_ai"。Autogen 默认会根据 api_base 的格式和请求的上下文来推断 API 类型。
解决方案
解决此问题的方法非常直接:从 config_list 中的每个配置字典中移除 api_type 参数。
以下是原始的、导致错误的代码配置:
config_list = [
{
"api_type": "open_ai", # <-- 导致错误的参数
"api_base": "http://localhost:1234/v1",
"api_key": "NULL"
}
]正确的配置应移除 api_type,如下所示:
config_list = [
{
"api_base": "http://localhost:1234/v1",
"api_key": "NULL"
}
]请注意,对于本地 LLM 服务,api_key 通常可以设置为 "NULL" 或任意非空字符串,因为本地服务通常不进行 API 密钥验证。关键在于 api_base 必须准确指向您的本地 LLM 服务地址和端口。
完整示例代码
下面是修正后的完整 Autogen 脚本,演示了如何正确配置并使用本地 LLM:
from autogen import AssistantAgent, UserProxyAgent
# 修正后的 config_list,移除了 "api_type" 参数
config_list = [
{
"api_base": "http://localhost:1234/v1", # 确保此地址指向您的本地LLM服务
"api_key": "NULL" # 本地LLM通常不需要实际的API密钥
}
]
# 配置 LLM
llm_config = {'config_list': config_list}
# 初始化 AssistantAgent
assistant = AssistantAgent(
name="assistant",
llm_config=llm_config
)
# 初始化 UserProxyAgent
user_proxy = UserProxyAgent(
name="user_proxy",
human_input_mode="NEVER", # 示例中设置为非交互模式
max_consecutive_auto_reply=100,
)
# 定义任务
task = """write a python method to output numbers 1 to 100"""
# 启动代理对话
user_proxy.initiate_chat(
assistant,
message=task
)注意事项与最佳实践
- 版本兼容性: 软件库,尤其是像 Autogen 这样快速迭代的框架,其 API 可能会频繁更新。遇到问题时,查阅其官方文档、GitHub 仓库的最新发布说明或变更日志(如 roadmap 或 CHANGELOG 文件)是解决问题的最佳途径。本案例中,api_type 的移除正是为了与 OpenAI API 的最新规范保持一致。
- 本地 LLM 服务状态: 在运行 Autogen 脚本之前,请务必确认您的本地 LLM 服务(例如 LM Studio、Ollama 等)已正确启动,并且其 API 接口在 config_list 中指定的 api_base 地址和端口上可用。常见的端口号包括 8000、1234、5000 等,具体取决于您的 LLM 工具配置。
- 错误信息解读: 当程序抛出 TypeError 并指出“got an unexpected keyword argument”时,这通常意味着您传递了一个函数或方法不再支持的参数。这强烈暗示了 API 签名或库行为发生了变化。
- api_key 的作用: 尽管对于本地 LLM 服务,api_key 可以是占位符,但在连接到真正的云端 LLM 服务(如 OpenAI、Azure OpenAI 等)时,它将是身份验证的关键凭证,必须提供有效密钥。
总结
TypeError: create() got an unexpected keyword argument 'api_type' 错误是 Autogen 框架与本地 LLM 交互时常见的配置问题,其核心在于 api_type 参数在最新版本的 Autogen 中已被弃用。通过简单地从 config_list 中移除此参数,并确保本地 LLM 服务正常运行且 api_base 配置正确,即可解决此问题,使 Autogen 代理能够顺利与本地模型进行通信并执行任务。始终保持对所用库最新变化的关注,是避免此类配置错误的关键。










