
本文旨在解决langchain.js用户在追踪openai模型token使用量和成本时遇到的挑战。不同于python版本提供的`get_openai_callback()`,langchain.js框架中没有直接对应的api。我们将详细介绍如何通过配置llm实例的`callbacks`属性,利用`handlellmend`回调函数来实时捕获并累计每次模型运行的token消耗数据,并提供代码示例及注意事项,帮助开发者有效管理和优化llm应用成本。
在开发基于大型语言模型(LLM)的应用时,尤其是在使用OpenAI等服务时,精确追踪Token的使用量和相应的成本是至关重要的。这不仅有助于成本控制,还能为模型性能优化提供数据支持。LangChain作为一个强大的LLM应用开发框架,在Python版本中提供了便捷的get_openai_callback()机制来处理这一需求。然而,对于LangChain.js的开发者而言,寻找一个等效且有效的Token追踪方案却是一个常见的困扰。
许多从LangChain Python迁移到LangChain.js的开发者会发现,Python版本中方便的get_openai_callback()函数在JavaScript框架中并不存在。尽管尝试通过一些非官方或由聊天机器人生成的代码(例如尝试调用chain.getOpenAICallback())来解决,但这些方法往往无效,因为相关函数在LangChain.js中并不存在。这使得开发者难以直接获取每次LLM调用后的Token消耗数据。
LangChain.js提供了一个灵活的回调系统,允许开发者在LLM生命周期的不同阶段注入自定义逻辑。解决Token追踪问题的关键在于利用handleLLMEnd回调函数,它会在每次LLM调用结束时被触发。通过将此回调函数配置到LLM实例中,我们可以在模型完成响应后,从回调参数中提取Token使用量信息。
以下是实现Token追踪的示例代码:
import { ChatOpenAI } from 'langchain/chat_models/openai';
import { BaseMessage } from 'langchain/schema';
// 定义用于累积Token使用量的变量
let totalCompletionTokens = 0; // 模型生成的Token数量
let totalPromptTokens = 0; // 用户输入的提示Token数量
let totalExecutionTokens = 0; // 总Token数量 (提示Token + 完成Token)
// 初始化ChatOpenAI实例,并配置回调函数
const llm = new ChatOpenAI({
// 配置callbacks属性,传入一个回调函数数组
callbacks: [
{
// handleLLMEnd 在每次LLM调用结束时触发
handleLLMEnd: (output, runId, parentRunId?, tags?) => {
// 从 output.llmOutput?.tokenUsage 中获取Token使用详情
const { completionTokens, promptTokens, totalTokens } = output.llmOutput?.tokenUsage || {};
// 累加Token数量,使用 ?? 0 确保在值为 undefined 时默认为 0
totalCompletionTokens += completionTokens ?? 0;
totalPromptTokens += promptTokens ?? 0;
totalExecutionTokens += totalTokens ?? 0;
console.log(`--- LLM Run ${runId} Ended ---`);
console.log(`Prompt Tokens: ${promptTokens ?? 0}`);
console.log(`Completion Tokens: ${completionTokens ?? 0}`);
console.log(`Total Tokens for this run: ${totalTokens ?? 0}`);
console.log(`Current Accumulated Total Tokens: ${totalExecutionTokens}`);
},
},
],
// 指定模型名称,注意某些模型版本可能对Token统计有特定要求
modelName: 'gpt-3.5-turbo-0613',
// 其他配置,例如温度等
temperature: 0.7,
});
// 示例:执行一次LLM调用
async function runLLMExample() {
console.log("Starting LLM call...");
const messages: BaseMessage[] = [
{ role: "user", content: "请用一句话描述什么是人工智能?" }
];
const result = await llm.call(messages);
console.log("LLM Response:", result.content);
// 可以在此处或后续需要时打印累积的Token数量
console.log("\n--- Overall Token Usage ---");
console.log(`Total Prompt Tokens: ${totalPromptTokens}`);
console.log(`Total Completion Tokens: ${totalCompletionTokens}`);
console.log(`Total Execution Tokens: ${totalExecutionTokens}`);
}
// 调用示例函数
runLLMExample().catch(console.error);
// 示例:在链中使用LLM
// 如果你使用的是ConversationalRetrievalQAChain等链,
// 只要该链内部使用了上面配置的llm实例,
// 同样会自动触发handleLLMEnd回调并累积Token。
/*
import { ConversationalRetrievalQAChain } from "langchain/chains";
import { BufferMemory } from "langchain/memory";
import { OpenAIEmbeddings } from "langchain/embeddings/openai";
import { MemoryVectorStore } from "langchain/vectorstores/memory";
async function runChainExample() {
const vectorStore = await MemoryVectorStore.fromTexts(
["LangChain 是一个用于开发由语言模型驱动的应用程序的框架。", "它简化了与大型语言模型的交互。"],
[{ id: 1 }, { id: 2 }],
new OpenAIEmbeddings()
);
const chain = ConversationalRetrievalQAChain.fromLLM(
llm, // 使用上面配置了回调的llm实例
vectorStore.asRetriever(),
{
memory: new BufferMemory({
memoryKey: "chat_history", // 必须与链的 memoryKey 匹配
inputKey: "question",
outputKey: "text",
returnMessages: true,
}),
returnSourceDocuments: true,
}
);
console.log("\nStarting Chain call...");
const res = await chain.call({
question: "什么是LangChain?",
chat_history: []
});
console.log("Chain Response:", res.text);
console.log("\n--- Overall Token Usage After Chain ---");
console.log(`Total Prompt Tokens: ${totalPromptTokens}`);
console.log(`Total Completion Tokens: ${totalCompletionTokens}`);
console.log(`Total Execution Tokens: ${totalExecutionTokens}`);
}
// runChainExample().catch(console.error);
*/尽管LangChain.js没有像Python版本那样直接的get_openai_callback()函数,但通过利用其灵活的callbacks机制和handleLLMEnd回调,我们依然可以有效地追踪OpenAI模型的Token使用量。这种方法不仅提供了精确的Token数据,也为开发者进行成本分析和性能优化奠定了基础。理解并正确应用这一技术,将帮助您更好地管理和维护基于LangChain.js的LLM应用。
以上就是在LangChain.js中追踪OpenAI模型Token使用量与成本的教程的详细内容,更多请关注php中文网其它相关文章!
每个人都需要一台速度更快、更稳定的 PC。随着时间的推移,垃圾文件、旧注册表数据和不必要的后台进程会占用资源并降低性能。幸运的是,许多工具可以让 Windows 保持平稳运行。
Copyright 2014-2025 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号