
在 langchain 开发过程中,尤其是在使用 langchain expression language (lcel) 构建复杂链时,理解链的内部执行流程和中间步骤的输出至关重要。尽管旧版 langchain 或其他构建方式可能通过 set_verbose(true) 或在模型初始化时设置 verbose=true 来启用详细输出,但在 lcel 链中,这些方法可能无法按预期工作。本文将详细介绍在 lcel 环境下获取详细日志输出的推荐方法和多种替代方案。
在 Langchain 0.0.345 及更高版本中,为 LCEL 链获取详细输出的推荐方法是在 invoke 方法的 config 参数中添加一个回调处理器。ConsoleCallbackHandler 是一个方便的回调类,可以将链的执行事件直接输出到控制台。
核心方法:在 invoke 中配置 ConsoleCallbackHandler
通过将 ConsoleCallbackHandler 实例添加到 invoke 方法的 config 字典中的 callbacks 列表中,可以观察到链的各个组件(如 Prompt、LLM、Output Parser)的输入、输出以及中间步骤。
from langchain.chat_models import ChatOpenAI
from langchain.prompts import ChatPromptTemplate
from langchain.schema.output_parser import StrOutputParser
from langchain.callbacks.tracers import ConsoleCallbackHandler # 导入 ConsoleCallbackHandler
# 定义链的组件
prompt = ChatPromptTemplate.from_template("告诉我一个关于{topic}的笑话")
model = ChatOpenAI()
output_parser = StrOutputParser()
# 构建 LCEL 链
chain = prompt | model | output_parser
# 调用链,并在 config 中配置回调处理器
# 这将把详细的执行日志输出到控制台
chain.invoke({"topic": "冰淇淋"}, config={'callbacks': [ConsoleCallbackHandler()]})注意事项: 这种方法提供的输出虽然与旧版“verbose mode”不完全相同,但它是目前获取 LCEL 链详细执行日志最接近且推荐的方式。它会显示每个组件的进入和退出事件,包括传递给组件的输入和组件返回的输出。
如果你不需要整个链的详细日志,或者希望只关注链中某个特定组件的运行情况,可以将回调处理器直接附加到该组件上。这可以通过组件的 .with_config() 方法实现。
示例:只对 ChatOpenAI 模型启用回调
from langchain.chat_models import ChatOpenAI
from langchain.prompts import ChatPromptTemplate
from langchain.schema.output_parser import StrOutputParser
from langchain.callbacks.tracers import ConsoleCallbackHandler
# 定义 Prompt 和 Output Parser
prompt = ChatPromptTemplate.from_template("告诉我一个关于{topic}的笑话")
output_parser = StrOutputParser()
# 创建 ChatOpenAI 模型实例,并使用 .with_config() 附加回调
# 这样,只有模型相关的事件会被 ConsoleCallbackHandler 捕获
model = ChatOpenAI().with_config({'callbacks': [ConsoleCallbackHandler()]})
# 构建 LCEL 链
chain = prompt | model | output_parser
# 调用链。此时,只有模型部分的日志会输出
chain.invoke({"topic": "冰淇淋"})这种方法提供了更细粒度的控制,可以减少不必要的日志输出,使调试更加聚焦。你也可以通过自定义回调处理器来捕获和处理特定类型的事件,实现更高级的日志记录和监控。更多关于回调的信息,可以参考 Langchain 官方文档。
对于需要最高级别日志输出的情况,Langchain 仍然提供了全局调试模式。与 set_verbose 不同,set_debug(True) 在 LCEL 链中仍然有效,可以提供非常详细的内部运行信息。
from langchain.globals import set_debug
from langchain.chat_models import ChatOpenAI
from langchain.prompts import ChatPromptTemplate
from langchain.schema.output_parser import StrOutputParser
# 启用全局调试模式
set_debug(True)
# 定义链的组件
prompt = ChatPromptTemplate.from_template("告诉我一个关于{topic}的笑话")
model = ChatOpenAI()
output_parser = StrOutputParser()
# 构建 LCEL 链
chain = prompt | model | output_parser
# 调用链。此时,控制台将输出大量的调试信息
chain.invoke({"topic": "冰淇淋"})注意事项:set_debug(True) 会产生大量的输出,这对于理解底层机制非常有用,但在日常开发中可能会显得过于冗余。建议在需要深度诊断问题时使用此模式。
对于更复杂的链或团队协作环境,使用专门的可视化调试工具可以提供更直观、更强大的调试体验。Langchain 生态系统支持与以下工具集成:
这些工具通过提供丰富的 UI 和数据分析功能,极大地简化了复杂 LLM 应用的调试和优化过程。
在 Langchain LCEL 链中获取详细日志输出有多种策略,每种策略适用于不同的场景:
根据你的具体需求和调试深度,选择最适合的方法,将有助于你更好地理解和优化 Langchain 应用。
以上就是Langchain LCEL 链式调用中的详细日志与调试方法的详细内容,更多请关注php中文网其它相关文章!
每个人都需要一台速度更快、更稳定的 PC。随着时间的推移,垃圾文件、旧注册表数据和不必要的后台进程会占用资源并降低性能。幸运的是,许多工具可以让 Windows 保持平稳运行。
Copyright 2014-2025 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号