
本文旨在解决gemini pro api在使用自定义安全设置时仍遭遇内容屏蔽的问题。我们将深入探讨api安全设置的正确配置方法,指出常见误区,并提供基于`safetysetting`对象的标准实现方案,确保开发者能有效管理内容过滤,提升api调用的成功率。
在使用Google Gemini Pro API进行内容生成时,开发者可能会遇到即使尝试配置了自定义安全设置,API仍然返回BlockedPromptException的困扰。这通常是由于对safety_settings参数的理解和使用不当造成的。本教程将详细介绍如何正确配置Gemini Pro API的安全设置,以有效控制内容过滤行为。
Gemini Pro API内置了强大的内容安全过滤机制,旨在识别并阻止生成有害或不当内容。这些过滤机制涵盖了多个危害类别,如色情内容、仇恨言论、骚扰和危险内容等。API允许开发者通过safety_settings参数来调整这些过滤器的严格程度。
常见的问题在于,许多开发者可能会尝试将safety_settings配置为一个简单的字典,例如:
safety_settings = {
'SEXUALLY_EXPLICIT': 'block_none',
'HATE_SPEECH': 'block_none',
'HARASSMENT': 'block_none',
'DANGEROUS_CONTENT': 'block_none'
}然而,这种字典形式的配置方式对于Gemini Pro API而言是不正确的。当API收到此类配置时,它可能无法正确解析,从而导致即使你指定了block_none,内容仍然会被默认的安全策略所拦截,并抛出BlockedPromptException,错误信息会明确指出被哪个类别拦截以及其概率,例如:
BlockedPromptException: block_reason: SAFETY safety_ratings { category: HARM_CATEGORY_HATE_SPEECH probability: HIGH }这表明API的内部安全模型仍然认为内容存在高风险,并且由于配置方式不正确,无法应用你期望的宽松策略。
Gemini Pro API的safety_settings参数期望接收一个SafetySetting对象的列表,而不是一个简单的字典。每个SafetySetting对象都应明确指定一个危害类别(HarmCategory)及其对应的阻断阈值(HarmBlockThreshold)。
首先,你需要从相关的库中导入用于定义危害类别、阻断阈值以及SafetySetting本身的类。
from vertexai.preview.generative_models import (
GenerativeModel,
HarmCategory,
HarmBlockThreshold
)
# 注意:SafetySetting类通常来自google.cloud.aiplatform_v1beta1.types.content
# 这取决于你使用的具体客户端库版本和导入方式。
# 在某些情况下,它可能直接通过vertexai.preview.generative_models导入,
# 但为了兼容性,使用明确的路径更稳妥。
from google.cloud.aiplatform_v1beta1.types.content import SafetySetting接下来,你需要为每个希望自定义其阻断阈值的危害类别创建一个SafetySetting实例,并将这些实例放入一个列表中。
例如,如果你希望将所有危害类别的阻断阈值都设置为BLOCK_NONE(即尽可能不阻断),你可以这样配置:
def get_gemini_response_with_custom_safety(question: str) -> str:
"""
使用自定义安全设置调用Gemini Pro API。
Args:
question: 要发送给模型的问题或提示。
Returns:
模型的响应文本。
"""
model = GenerativeModel("gemini-pro")
custom_safety_settings = [
SafetySetting(
category=HarmCategory.HARM_CATEGORY_SEXUALLY_EXPLICIT,
threshold=HarmBlockThreshold.BLOCK_NONE,
),
SafetySetting(
category=HarmCategory.HARM_CATEGORY_DANGEROUS_CONTENT,
threshold=HarmBlockThreshold.BLOCK_NONE,
),
SafetySetting(
category=HarmCategory.HARM_CATEGORY_HATE_SPEECH,
threshold=HarmBlockThreshold.BLOCK_NONE,
),
SafetySetting(
category=HarmCategory.HARM_CATEGORY_HARASSMENT,
threshold=HarmBlockThreshold.BLOCK_NONE,
),
]
try:
response = model.generate_content(
question,
generation_config={
"max_output_tokens": 2048,
"temperature": 0,
"top_p": 1,
},
safety_settings=custom_safety_settings
)
return response.text
except Exception as e:
print(f"API调用失败: {e}")
return f"错误:{e}"
# 示例调用
# prompt_text = "描述一起轻微的交通事故,包括擦伤和车辆损坏。"
# print(get_gemini_response_with_custom_safety(prompt_text))在上述代码中,我们创建了一个custom_safety_settings列表,其中包含了四个SafetySetting对象,分别针对不同的危害类别设置了BLOCK_NONE的阈值。这意味着API在处理这些类别的内容时将采取最宽松的策略。
正确配置Gemini Pro API的安全设置是确保API稳定运行和内容符合预期的关键。通过使用SafetySetting对象列表来定义危害类别和阻断阈值,开发者可以获得对内容过滤机制更精细的控制。理解API的内部工作原理,并结合实际需求进行细致的测试与迭代,将有助于构建更健壮、更符合道德规范的AI应用。
以上就是正确配置Gemini Pro API安全设置以避免内容屏蔽的详细内容,更多请关注php中文网其它相关文章!
每个人都需要一台速度更快、更稳定的 PC。随着时间的推移,垃圾文件、旧注册表数据和不必要的后台进程会占用资源并降低性能。幸运的是,许多工具可以让 Windows 保持平稳运行。
Copyright 2014-2025 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号