首页 > web前端 > js教程 > 正文

OpenAI微调模型调用错误:“模型不存在”的解决方案与API选择指南

霞舞
发布: 2025-10-25 14:31:22
原创
377人浏览过

OpenAI微调模型调用错误:“模型不存在”的解决方案与API选择指南

当您在使用openai微调模型时遇到“the model `xxxxx` does not exist”错误,这通常是由于选择了错误的api端点。解决此问题的关键在于识别您的微调模型所基于的原始模型类型:若基于gpt-3.5 turbo,应使用chat completions api;若基于gpt-3(如`babbage-002`或`davinci-002`),则需使用completions api。本文将详细指导您如何根据模型类型选择正确的api端点,并提供相应的代码示例。

理解“模型不存在”错误及其根源

在使用OpenAI API时,如果尝试调用一个微调模型却收到"The model \ft-modelname` does not exist"`的错误信息,即使您已通过API确认该模型确实存在,这通常不是模型本身的问题,而是您调用的API端点与微调模型类型不匹配。OpenAI的API设计区分了不同类型的模型及其对应的交互方式。

历史背景与API演进

最初,OpenAI的微调功能主要针对GPT-3系列的基础模型(如davinci-002、babbage-002)。这些微调模型只能通过Completions API (/v1/completions) 来调用,其请求体中包含一个prompt字符串。

然而,自2023年8月22日起,OpenAI正式开放了GPT-3.5 Turbo模型的微调功能。这意味着现在您可以对gpt-3.5-turbo进行微调,而这些基于gpt-3.5-turbo的微调模型,则需要通过Chat Completions API (/v1/chat/completions) 来调用,其请求体中包含一个messages数组,遵循聊天对话的结构。未来,GPT-4的微调功能也将遵循类似的逻辑。

因此,解决“模型不存在”错误的核心在于:根据您的微调模型所基于的原始模型类型,选择正确的API端点。

如何确定正确的API端点

当您完成微调任务并成功创建了一个微调模型后,OpenAI会在微调任务的详情中提供fine_tuned_model字段,其中包含模型名称。要确定应使用哪个API端点,您需要知道这个微调模型是基于哪个原始模型进行训练的。

  • 如果您的微调模型是基于 gpt-3.5-turbo 训练的:

    • 请使用 Chat Completions API (https://api.openai.com/v1/chat/completions)
    • 请求体应包含一个 messages 数组。
  • 如果您的微调模型是基于 babbage-002 或 davinci-002(或其他GPT-3系列模型)训练的:

    • 请使用 Completions API (https://api.openai.com/v1/completions)
    • 请求体应包含一个 prompt 字符串。

示例代码:根据模型类型调用微调模型

以下是根据不同微调模型类型调用API的示例。

场景一:调用基于GPT-3.5 Turbo的微调模型 (使用 Chat Completions API)

如果您的微调模型(例如 ft-your-gpt35-model)是基于 gpt-3.5-turbo 训练的,您应使用 chat/completions 端点。

文心大模型
文心大模型

百度飞桨-文心大模型 ERNIE 3.0 文本理解与创作

文心大模型 56
查看详情 文心大模型
const API_KEY = "YOUR_OPENAI_API_KEY";
const ORG_ID = "YOUR_OPENAI_ORG_ID"; // 可选,如果您的API密钥关联到特定组织

const headers = {
  "Content-Type": "application/json",
  Authorization: "Bearer " + API_KEY,
  "OpenAI-Organization": ORG_ID, // 如果有组织ID,请包含
};

const fineTunedChatModel = "ft-your-gpt35-model"; // 您的基于GPT-3.5 Turbo的微调模型名称
const userMessage = "你好,请问你是谁?";

try {
  const res = await axios.post(
    "https://api.openai.com/v1/chat/completions",
    {
      model: fineTunedChatModel,
      messages: [
        {
          role: "system",
          content: "你的名字是小助手。",
        },
        {
          role: "user",
          content: userMessage,
        },
      ],
    },
    { headers }
  );
  console.log("Chat Completions API 响应:", res.data.choices[0].message.content);
} catch (error) {
  console.error("Chat Completions API 调用失败:", error.response ? error.response.data : error.message);
}
登录后复制

场景二:调用基于GPT-3(如babbage-002或davinci-002)的微调模型 (使用 Completions API)

如果您的微调模型(例如 ft-your-gpt3-model)是基于GPT-3系列模型训练的,您应使用 completions 端点。

const API_KEY = "YOUR_OPENAI_API_KEY";
const ORG_ID = "YOUR_OPENAI_ORG_ID"; // 可选

const headers = {
  "Content-Type": "application/json",
  Authorization: "Bearer " + API_KEY,
  "OpenAI-Organization": ORG_ID, // 如果有组织ID,请包含
};

const fineTunedCompletionModel = "ft-your-gpt3-model"; // 您的基于GPT-3的微调模型名称
const promptText = "请说这是一个测试。";

try {
  const res = await axios.post(
    "https://api.openai.com/v1/completions",
    {
      model: fineTunedCompletionModel,
      prompt: promptText,
      max_tokens: 50, // 根据需要设置
    },
    { headers }
  );
  console.log("Completions API 响应:", res.data.choices[0].text);
} catch (error) {
  console.error("Completions API 调用失败:", error.response ? error.response.data : error.message);
}
登录后复制

其他语言和工具的通用 Completions API 调用示例

以下是针对Completions API(用于GPT-3系列微调模型)的通用调用方式。

Python

import os
import openai

openai.api_key = os.getenv("OPENAI_API_KEY")

fine_tuned_model_name = "ft-your-gpt3-model"
your_prompt = "请说这是一个测试。"

try:
    response = openai.Completion.create(
        model=fine_tuned_model_name,
        prompt=your_prompt
    )
    print(response.choices[0].text)
except openai.error.OpenAIError as e:
    print(f"API 调用失败: {e}")
登录后复制

NodeJS (使用官方 openai 库)

const { Configuration, OpenAIApi } = require("openai");

const configuration = new Configuration({
  apiKey: process.env.OPENAI_API_KEY,
});

const openai = new OpenAIApi(configuration);

const fineTunedModelName = "ft-your-gpt3-model";
const yourPrompt = "请说这是一个测试。";

async function callCompletionAPI() {
  try {
    const response = await openai.createCompletion({
      model: fineTunedModelName,
      prompt: yourPrompt,
    });
    console.log(response.data.choices[0].text);
  } catch (error) {
    console.error("API 调用失败:", error.response ? error.response.data : error.message);
  }
}

callCompletionAPI();
登录后复制

cURL

curl https://api.openai.com/v1/completions \
  -H "Authorization: Bearer $OPENAI_API_KEY" \
  -H "Content-Type: application/json" \
  -d '{
    "prompt": "请说这是一个测试。",
    "model": "ft-your-gpt3-model",
    "max_tokens": 50
  }'
登录后复制

OpenAI CLI

openai api completions.create -m <ft-your-gpt3-model> -p "请说这是一个测试。"
登录后复制

注意事项与总结

  1. 确认微调模型的基础类型: 这是解决问题的关键。务必知道您的 ft-xxxxx 模型是基于 gpt-3.5-turbo 还是 babbage-002/davinci-002 等GPT-3模型训练的。
  2. API 端点匹配:
    • 基于 gpt-3.5-turbo 的微调模型 → https://api.openai.com/v1/chat/completions (使用 messages 参数)。
    • 基于 GPT-3 (如 babbage-002, davinci-002) 的微调模型 → https://api.openai.com/v1/completions (使用 prompt 参数)。
  3. API 密钥和组织ID: 确保您的 OPENAI_API_KEY 和 OpenAI-Organization (如果适用) 是正确且有效的。
  4. 请求体结构: chat/completions 期望 messages 数组,而 completions 期望 prompt 字符串。即使模型名称正确,错误的请求体结构也会导致API报错。

通过仔细核对您的微调模型类型并选择对应的API端点和请求参数,您将能够成功调用您的微调模型,避免“模型不存在”的错误。

以上就是OpenAI微调模型调用错误:“模型不存在”的解决方案与API选择指南的详细内容,更多请关注php中文网其它相关文章!

最佳 Windows 性能的顶级免费优化软件
最佳 Windows 性能的顶级免费优化软件

每个人都需要一台速度更快、更稳定的 PC。随着时间的推移,垃圾文件、旧注册表数据和不必要的后台进程会占用资源并降低性能。幸运的是,许多工具可以让 Windows 保持平稳运行。

下载
来源:php中文网
本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系admin@php.cn
最新问题
开源免费商场系统广告
热门教程
更多>
最新下载
更多>
网站特效
网站源码
网站素材
前端模板
关于我们 免责申明 意见反馈 讲师合作 广告合作 最新更新 English
php中文网:公益在线php培训,帮助PHP学习者快速成长!
关注服务号 技术交流群
PHP中文网订阅号
每天精选资源文章推送
PHP中文网APP
随时随地碎片化学习

Copyright 2014-2025 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号