如果您需要任何上云服务
请随时联系我们:
电话:021-50583875
邮箱:service@yuncan.com
2025-03-11 14:38:10 98人关注
人工智能公司 Anthropic 近日宣布开发了一种名为“体质分类器”的新安全方法,旨在保护语言模型免受恶意操纵。该技术专门针对“通用越狱”——一种试图系统性绕过所有安全措施的输入方式,以防止 AI 模型生成有害内容。
Anthropic Constitution Classifier 模型越狱防护 AI安全技术 大模型安全机制 Anthropic AI 安全创新