
本文深入探讨了langchain csv/pandas代理在使用特定大型语言模型(llm)时,未能执行工具函数,反而直接返回json函数调用描述的问题。核心原因在于llm未针对openai函数调用格式进行微调。文章提供了两种解决方案:一是切换至支持openai函数调用的模型,如gpt系列;二是更改代理类型为`zero_shot_react_description`,以适应非函数调用模型。通过代码示例,指导开发者正确配置langchain代理,确保其功能正常运行。
LangChain框架中的代理(Agents)旨在赋予大型语言模型(LLM)使用外部工具的能力,以执行特定任务,例如数据分析、信息检索或代码执行。CSV代理和Pandas Dataframe代理是langchain-experimental库中常用的工具包,它们允许LLM通过Python代码对CSV数据进行操作和分析。
当使用AgentType.OPENAI_FUNCTIONS类型的代理时,LangChain会利用OpenAI模型特有的函数调用能力。在这种模式下,LLM接收用户请求后,会生成一个结构化的JSON对象,描述需要调用的工具及其参数。LangChain代理的预期行为是接收到这个JSON后,自动调用对应的工具(例如Python REPL),执行代码,并将结果反馈给LLM,最终由LLM生成自然语言的回复。
在某些情况下,开发者可能会遇到LangChain代理未能按预期执行工具的问题。具体表现为,当代理接收到LLM生成的JSON函数调用描述后,它没有进一步调用工具,而是直接将这个JSON对象作为结果返回给了用户。例如,当用户提问“有多少行?”时,代理本应执行df.shape[0]或len(df)并返回数字结果,但却可能返回如下JSON:
{
"function": "python_repl_ast",
"parameters": {
"query": "len(df)"
}
}这表明LLM成功识别了需要执行的操作并以函数调用格式输出了指令,但代理层并未将这些指令转化为实际的工具执行。
此问题的核心在于所使用的大型语言模型(LLM)与OpenAI函数调用格式的兼容性。AgentType.OPENAI_FUNCTIONS代理类型依赖于LLM能够理解并生成符合OpenAI函数调用规范的JSON结构。然而,并非所有LLM都经过了这种特定格式的微调。例如,mistralai/mixtral-8x7b-instruct等模型,在未经额外微调的情况下,可能无法正确地与OpenChain的OPENAI_FUNCTIONS代理类型协同工作,导致它们虽然能“模仿”生成JSON,但代理却无法将其识别为可执行的函数调用。
解决此问题主要有两种策略,分别从LLM选择和代理类型配置两方面入手。
最直接的解决方案是使用明确支持OpenAI函数调用的模型。OpenAI官方提供的模型,如gpt-3.5-turbo和gpt-4系列,都经过了专门的微调,能够完美地与AgentType.OPENAI_FUNCTIONS配合。
示例代码修改:
import os
from langchain.chat_models import ChatOpenAI
from langchain.agents.agent_types import AgentType
from langchain_experimental.agents.agent_toolkits import create_csv_agent
# ... 其他不变的配置 ...
def main():
filepath = input("Enter the path to the CSV file: ")
# 更改LLM模型为支持OpenAI函数调用的模型
# 例如,使用OpenAI官方的gpt-3.5-turbo
# 注意:如果使用OpenRouter,请确保其代理的gpt-3.5-turbo模型支持函数调用
chat_model_openai_functions_compatible = ChatOpenAI(
api_key=os.environ.get("OPENAI_API_KEY"), # 使用OpenAI官方API Key
model="gpt-3.5-turbo", # 更改为支持函数调用的模型
temperature=0.0,
)
agent = create_csv_agent(
chat_model_openai_functions_compatible, # 使用兼容的LLM
filepath,
verbose=True,
# openai_model参数通常在create_csv_agent内部处理,如果外部ChatOpenAI已指定,此处可省略
# agent_type保持为OPENAI_FUNCTIONS
agent_type=AgentType.OPENAI_FUNCTIONS,
)
while True:
user_message = input("You: ")
lower_message = user_message.lower()
if lower_message == "goodbye" or lower_message == "goodbye!":
break
response = agent.run(user_message)
print(f"Agent: {response}")
if __name__ == "__main__":
main()注意事项:
如果必须使用不支持OpenAI函数调用格式的模型(例如,出于成本、性能或特定模型特性考虑),则需要更改代理的类型。AgentType.ZERO_SHOT_REACT_DESCRIPTION是一种常见的替代方案。这种代理类型不依赖于LLM生成结构化的JSON函数调用,而是通过LLM生成一系列文本形式的思考(Thought)和行动(Action)指令,LangChain代理会解析这些文本指令并执行相应的工具。
示例代码修改:
import os
from langchain.chat_models import ChatOpenAI
from langchain.agents.agent_types import AgentType
from langchain_experimental.agents.agent_toolkits import create_csv_agent
api_key = os.environ.get("OPENROUTER_API_KEY")
api_base = "https://openrouter.ai/api/v1"
model = "mistralai/mixtral-8x7b-instruct" # 保持使用原模型
chat_model = ChatOpenAI(
api_key=api_key,
base_url=api_base,
model=model,
temperature=0.0,
)
def main():
filepath = input("Enter the path to the CSV file: ")
agent = create_csv_agent(
chat_model,
filepath,
verbose=True,
# 移除openai_model参数,因为它通常与OPENAI_FUNCTIONS类型相关联
# 更改代理类型为ZERO_SHOT_REACT_DESCRIPTION
agent_type=AgentType.ZERO_SHOT_REACT_DESCRIPTION,
)
while True:
user_message = input("You: ")
lower_message = user_message.lower()
if lower_message == "goodbye" or lower_message == "goodbye!":
break
response = agent.run(user_message)
print(f"Agent: {response}")
if __name__ == "__main__":
main()注意事项:
在LangChain中,当CSV/Pandas代理未能执行工具调用而直接返回JSON函数描述时,通常是由于所选LLM与AgentType.OPENAI_FUNCTIONS所需的OpenAI函数调用格式不兼容。解决此问题的关键在于:要么选择一个明确支持OpenAI函数调用的LLM(如gpt-3.5-turbo),要么将代理类型切换为ZERO_SHOT_REACT_DESCRIPTION等不依赖于特定函数调用格式的类型。理解并正确配置LLM与代理类型之间的匹配关系,是确保LangChain代理正常工作的关键。
以上就是LangChain代理与OpenAI函数调用:解决工具执行失败问题的详细内容,更多请关注php中文网其它相关文章!
每个人都需要一台速度更快、更稳定的 PC。随着时间的推移,垃圾文件、旧注册表数据和不必要的后台进程会占用资源并降低性能。幸运的是,许多工具可以让 Windows 保持平稳运行。
Copyright 2014-2025 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号