首页 > web前端 > js教程 > 正文

在LangChain.js中高效追踪OpenAI模型令牌消耗与成本

聖光之護
发布: 2025-11-24 16:16:02
原创
632人浏览过

在langchain.js中高效追踪openai模型令牌消耗与成本

本文旨在解决LangChain.js开发者在监控OpenAI模型令牌使用量和相关成本时遇到的挑战,尤其是在缺乏Python中`get_openai_callback()`直接对应功能的情况下。文章将详细介绍如何通过利用`ChatOpenAI`模型中的`handleLLMEnd`回调函数,精确地追踪每次模型运行的提示令牌、完成令牌及总令牌消耗,从而实现更精细的成本管理和性能分析。

在开发基于LangChain.js和OpenAI的项目时,准确追踪大型语言模型(LLM)的令牌消耗是优化成本和分析性能的关键一环。与LangChain Python框架中提供便捷的get_openai_callback()方法不同,LangChain.js目前并未提供一个直接的、等价的API来轻松获取每次链运行的令牌使用和成本信息,这给许多开发者带来了困扰。本文将详细阐述一种有效的方法,通过利用LangChain.js中LLM回调机制,实现对OpenAI模型令牌消耗的精确监控。

核心方法:利用handleLLMEnd回调函数

LangChain.js提供了强大的回调系统,允许开发者在LLM生命周期的不同阶段注入自定义逻辑。对于追踪令牌消耗,handleLLMEnd回调函数是理想的选择。这个函数会在每次LLM调用结束时被触发,并提供包含令牌使用信息的output参数。

LanguagePro
LanguagePro

LanguagePro是一款强大的AI写作助手,可以帮助你更好、更快、更有效地写作。

LanguagePro 120
查看详情 LanguagePro

实现步骤

  1. 导入ChatOpenAI: 确保您正在使用langchain/chat_models/openai模块中的ChatOpenAI类,因为目前观察到此方法在ChatOpenAI上表现最为稳定,尤其是在特定模型版本下。
  2. 定义令牌计数器: 初始化几个变量来累计不同类型的令牌消耗,例如totalCompletionTokens、totalPromptTokens和totalExecutionTokens。
  3. 配置callbacks属性: 在实例化ChatOpenAI时,通过callbacks属性传入一个包含回调函数的数组。
  4. 实现handleLLMEnd: 在回调对象中,定义handleLLMEnd方法。此方法接收output、runId等参数。关键在于从output.llmOutput?.tokenUsage中提取completionTokens、promptTokens和totalTokens。
  5. 累加令牌: 将提取到的令牌数量累加到预定义的计数器中。

示例代码

以下是实现令牌追踪的完整代码示例:

import { ChatOpenAI } from 'langchain/chat_models/openai';
import { HumanMessage } from 'langchain/schema';

// 定义全局变量来累积令牌使用量
let totalCompletionTokens = 0;
let totalPromptTokens = 0;
let totalExecutionTokens = 0;

// 实例化ChatOpenAI模型,并配置回调函数
const llm = new ChatOpenAI({
    // 配置回调数组
    callbacks: [
      {
        // handleLLMEnd在LLM调用结束后触发
        handleLLMEnd: (output, runId, parentRunId?, tags?) => {
          // 从output中安全地提取tokenUsage信息
          const { completionTokens, promptTokens, totalTokens } = output.llmOutput?.tokenUsage || {};

          // 累加令牌数量,确保处理undefined情况
          totalCompletionTokens += completionTokens ?? 0;
          totalPromptTokens += promptTokens ?? 0;
          totalExecutionTokens += totalTokens ?? 0;

          console.log(`--- LLM Run ID: ${runId} ---`);
          console.log(`Prompt Tokens: ${promptTokens ?? 0}`);
          console.log(`Completion Tokens: ${completionTokens ?? 0}`);
          console.log(`Total Tokens for this run: ${totalTokens ?? 0}`);
          console.log(`Current Accumulated Total Tokens: ${totalExecutionTokens}`);
        },
      },
    ],
    // 推荐使用特定的模型版本,例如 'gpt-3.5-turbo-0613'
    // 注意:某些模型或版本可能存在令牌统计不准确的问题
    modelName: 'gpt-3.5-turbo-0613', 
    // 其他OpenAI API参数,例如 temperature, openAIApiKey等
    temperature: 0.7,
    openAIApiKey: process.env.OPENAI_API_KEY, // 确保从环境变量获取API Key
});

// 示例:执行一次LLM调用
async function runExampleChat() {
    console.log("Starting LLM call...");
    const response = await llm.call([
        new HumanMessage("请用一句话介绍一下大型语言模型。"),
    ]);
    console.log("LLM Response:", response.content);
    console.log("\n--- Final Token Usage Summary ---");
    console.log(`Total Prompt Tokens Across All Runs: ${totalPromptTokens}`);
    console.log(`Total Completion Tokens Across All Runs: ${totalCompletionTokens}`);
    console.log(`Total Execution Tokens Across All Runs: ${totalExecutionTokens}`);

    // 重置计数器以便进行下一次独立测试(可选)
    totalCompletionTokens = 0;
    totalPromptTokens = 0;
    totalExecutionTokens = 0;
}

// 调用示例函数
runExampleChat().catch(console.error);

// 示例:执行另一次LLM调用
async function runAnotherExampleChat() {
    console.log("\nStarting another LLM call...");
    const response = await llm.call([
        new HumanMessage("解释一下云计算的优势。"),
    ]);
    console.log("LLM Response:", response.content);
    console.log("\n--- Final Token Usage Summary ---");
    console.log(`Total Prompt Tokens Across All Runs: ${totalPromptTokens}`);
    console.log(`Total Completion Tokens Across All Runs: ${totalCompletionTokens}`);
    console.log(`Total Execution Tokens Across All Runs: ${totalExecutionTokens}`);
}

// 可以在适当的时机调用 runAnotherExampleChat()
// setTimeout(() => runAnotherExampleChat().catch(console.error), 3000);
登录后复制

代码解析

  • output.llmOutput?.tokenUsage: 这是获取令牌使用信息的关键路径。llmOutput是一个可选属性,其中包含LLM的详细输出信息,而tokenUsage则是一个对象,包含了completionTokens(模型生成的令牌)、promptTokens(输入给模型的令牌)和totalTokens(总令牌)。
  • ?? 0: 使用空值合并运算符确保即使tokenUsage属性或其子属性为undefined,也能安全地将其视为0,避免计算错误。
  • modelName: 'gpt-3.5-turbo-0613': 这是一个重要的注意事项。根据社区反馈,在LangChain.js的某些版本(如0.0.116)中,令牌统计功能在使用ChatOpenAI和特定模型(如gpt-3.5-turbo-0613)时更为可靠。使用其他LLM类或模型可能无法正确返回令牌信息,这可能是一个框架特性或潜在的bug。

注意事项与成本计算

  1. 模型兼容性: 强烈建议使用ChatOpenAI类,并尝试使用如gpt-3.5-turbo-0613或更新的聊天模型版本。如果遇到令牌统计不准确的问题,首先检查所使用的LLM类和模型版本。
  2. 全局计数器: 示例中使用了全局变量来累积令牌。在实际生产环境中,您可能需要更复杂的管理方式,例如将这些计数器封装在一个服务或类中,或者与日志系统、监控系统集成。
  3. 成本计算: 一旦获取了promptTokens和completionTokens,就可以根据OpenAI的官方定价模型来计算成本。OpenAI通常会为输入(prompt)和输出(completion)令牌设定不同的费率。
    • 例如,如果Prompt Token价格为P美元/千令牌,Completion Token价格为C美元/千令牌,则总成本可以计算为: Cost = (totalPromptTokens / 1000) * P + (totalCompletionTokens / 1000) * C 请务必查阅OpenAI的最新定价页面以获取准确的费率。
  4. 异步与并发: 如果您的应用涉及大量并发的LLM调用,确保您的令牌计数器能够正确处理并发写入,例如使用原子操作或适当的锁机制(在JavaScript中可能需要考虑更高级的并发控制策略,或者将计数逻辑放在单线程事件循环中)。

总结

尽管LangChain.js目前没有像Python那样直接的get_openai_callback()方法来获取令牌消耗,但通过利用ChatOpenAI的callbacks属性和handleLLMEnd回调函数,开发者可以有效地追踪每次LLM调用的令牌使用情况。这种方法不仅有助于精确监控成本,还能为性能分析和资源优化提供宝贵的数据。在实施时,请务必关注模型兼容性、成本计算逻辑以及在复杂应用场景下的计数器管理。

以上就是在LangChain.js中高效追踪OpenAI模型令牌消耗与成本的详细内容,更多请关注php中文网其它相关文章!

最佳 Windows 性能的顶级免费优化软件
最佳 Windows 性能的顶级免费优化软件

每个人都需要一台速度更快、更稳定的 PC。随着时间的推移,垃圾文件、旧注册表数据和不必要的后台进程会占用资源并降低性能。幸运的是,许多工具可以让 Windows 保持平稳运行。

下载
来源:php中文网
本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系admin@php.cn
最新问题
开源免费商场系统广告
热门教程
更多>
最新下载
更多>
网站特效
网站源码
网站素材
前端模板
关于我们 免责申明 举报中心 意见反馈 讲师合作 广告合作 最新更新 English
php中文网:公益在线php培训,帮助PHP学习者快速成长!
关注服务号 技术交流群
PHP中文网订阅号
每天精选资源文章推送
PHP中文网APP
随时随地碎片化学习

Copyright 2014-2025 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号