豆包 AI 是字节跳动旗下火山引擎推出的大型中文语言模型和人工智能服务平台。集成了文本生成、图像合成、视频制作、数据分析等多种 AI 能力,支持多模态交互。具备超大上下文窗口(最高支持 256k tokens),适合处理长文本、复杂对话和知识推理。通过 API 和 SDK 形式,方便开发者和企业集成到各类应用中。

豆包 API 定价详解
一、模型与单价(元 / 百万 tokens)
-
Doubao‑lite‑4k / 32k:输入 0.3,输出 0.6
-
Doubao‑lite‑128k:输入 0.8,输出 1.0
-
Doubao‑pro‑4k / 32k:输入 0.8,输出 2.0
-
Doubao‑pro‑128k:输入 5,输出 9
-
Seed‑1.6 系列(含 deep thinking 模式):输入 0.8,输出 8.0(思考模式)或 0.2–2.0
-
Doubao‑1.5‑pro‑32k:输入 0.8,输出 2.0
-
Doubao‑1.5‑pro‑256k:输入 5,输出 9
二、免费额度与折扣
- 初次开通每个模型可获 50 万 tokens 免费额度。
- 部分活动期间可额外获得高达数亿 tokens 的赠送。
- 企业用户可通过资源包或协作计划,享受折扣价甚至五折优惠。
三、价格亮点与市场对比
- Doubao‑pro‑32k 输入仅 0.8 元 / M,远低于行业均价(如 GPT‑4 同类约 120 元)。
- 即使在 pro‑128k 版本,也比多数竞品(如 Qwen、Moonshot)低价 90% 以上。
- 适合成本敏感型项目,尤其长上下文使用场景,具备高性价比优势。
四、典型成本举例
- 使用 lite‑32k 模型,1000 tokens 输入 + 1000 tokens 输出 ≈ 输入 0.0003 元 + 输出 0.0006 元 = 总计约 0.0009 元。
- 使用 pro‑32k 模型,1000 tokens 输入 + 1000 tokens 输出 ≈ 输入 0.0008 元 + 输出 0.002 元 = 总计约 0.0028 元。
五、建议选择策略
- 对话与轻文生场景推荐使用 lite‑32k;
- 代码生成、逻辑推理、文档创作等复杂任务推荐 pro‑32k;
- 需超长上下文(超过 128k)建议选 pro‑128k / 256k,可配合资源包节约成本;
- 对实时性或高性能需求,可考虑启用 deep‑thinking 模式,尽管价格略高。
以上就是豆包API价格怎么样的详细内容,更多请关注php中文网其它相关文章!