安全设置
安全过滤条件
用例 | 类别 |
---|---|
反骚扰培训应用 | 仇恨言论、露骨色情内容 |
剧本作者 | 露骨色情、危险 |
恶意分类器 | 骚扰、危险内容 |
概率与严重程度
1.
2.
安全设置
类别 | 说明 |
---|---|
骚扰 | 针对身份和/或受保护特征发表的负面或有害评论。 |
仇恨言论 | 粗俗、不雅或亵渎性的内容。 |
露骨色情 | 提及性行为或其他淫秽内容。 |
危险 | 宣扬、助长或鼓励有害行为。 |
阈值 (Google AI Studio) | 阈值 (API) | 说明 |
---|---|---|
全部不屏蔽 | BLOCK_NONE | 始终显示(无论是否存在不安全内容的概率) |
屏蔽少部分 | BLOCK_ONLY_HIGH | 在存在高风险的不安全内容时屏蔽 |
屏蔽部分 | BLOCK_MEDIUM_AND_ABOVE | 出现中等或高概率的不安全内容时屏蔽 |
屏蔽大部分 | BLOCK_LOW_AND_ABOVE | 在存在不安全内容的几率较低、中等或较高时屏蔽 |
HARM_BLOCK_THRESHOLD_UNSPECIFIED | 未指定阈值,使用默认阈值进行屏蔽 |
HarmBlockThreshold
API 参考文档。安全反馈
ContentFilter.reason
字段中包含被屏蔽的原因。如果原因与安全相关,则响应中还会包含 SafetyFeedback
字段,其中包含用于该请求的安全设置以及安全评分。安全评分包括分类的类别和概率。系统不会返回被屏蔽的内容。概率 | 说明 |
---|---|
忽略 | 内容不安全的可能性微 乎其微 |
低 | 内容不安全的可能性很低 |
中等 | 内容不安全的可能性为中等 |
高 | 内容很有可能不安全 |
HARASSMENT
,伤害概率会设置为 HIGH
。Google AI Studio 中的安全设置


代码示例
请求示例
GenerateContent
调用中设置安全设置。这会将伤害类别 Harassment
和 Hate speech
设置为 BLOCK_LOW_AND_ABOVE
,从而屏蔽任何具有骚扰或仇恨言论的可能性较低或较高的内容。
响应示例
后续步骤
修改于 2023-12-25 06:27:36