
提示链正在彻底改变我们与大型语言模型 (llm) 交互的方式。通过将多个提示链接在一起,我们可以创建复杂、动态的对话并处理复杂的任务。但这种力量确实是有代价的。每次对 llm 服务(例如 google 的 gemini)的 api 调用都会增加您的账单。
许多llm提供商提供了一个解决方案:批处理。在一个请求中发送多个提示并享受大幅折扣(通常在 50% 左右!)。然而,在提示链工作流程中实现批处理很快就会变成编码噩梦。
想象一下您正在构建一个具有多步骤对话的聊天机器人。使用传统的提示链接,您将发送每条用户消息并等待模型的响应,然后再制定下一个提示。但要利用批量折扣,您需要:
除此之外,您还需要处理速率限制、错误和重试。这可能会导致难以阅读、调试和维护的复杂代码。
gembatch 是一个 python 框架,旨在简化与 google gemini 的批处理提示链接。它与 firebase 无缝集成,为您的 llm 应用程序提供熟悉且可扩展的环境。
以下是 gembatch 如何让您的生活更轻松:
采用三层架构开发,前台集成了产品在线展示,用户注册、在线调查、在线投稿后台有类别管理\图书管理\订单管理\会员管理\配送范围管理\邮件列表\广告管理\友情链接管理等后台添加图书时自动生成缩略图和文字水印主要参考了petshop的设计架构、使用了Asp.net2.0中很多MemberShip、master等新功能后台管理地址/web/admin/ 超级管理员账号密码均为aspx1特别提示:该系统需要
0
import gembatch
# Define a simple prompt chain
def task_a_prompt1():
gembatch.submit(
{
"contents": [
{
"role": "user",
"parts": [{"text": "What is the capital of France?"}],
}
],
}, # prompt 1
"publishers/google/models/gemini-1.5-pro-002",
task_a_prompt2
)
def task_a_prompt2(response: generative_models.GenerationResponse):
gembatch.submit(
{
"contents": [
{
"role": "model",
"parts": [{"text": response.text}],
},
{
"role": "user",
"parts": [{"text": f"And what is the population of {response.text}?"}],
}
],
}, # prompt 2
"publishers/google/models/gemini-1.5-pro-002",
task_a_output
)
def task_a_output(response: generative_models.GenerationResponse):
print(response.text)
# Start the prompt chain
task_a_prompt1()
这个简单的示例演示了 gembatch 如何允许您使用 gembatch.submit() 定义提示链。 gembatch 负责对 gemini 的请求进行批处理并管理异步响应。
准备好释放经济高效的提示链的力量了吗?查看 github 上的 gembatch 存储库:
https://github.com/blueworrybear/gembatch
我们欢迎反馈和建议!
以上就是使用 GemBatch 降低提示链接的成本的详细内容,更多请关注php中文网其它相关文章!
每个人都需要一台速度更快、更稳定的 PC。随着时间的推移,垃圾文件、旧注册表数据和不必要的后台进程会占用资源并降低性能。幸运的是,许多工具可以让 Windows 保持平稳运行。
Copyright 2014-2025 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号