- 上云资讯 -
2025-04-01 16:33:30 84人关注
Anthropic强化AI模型安全措施,确保技术负责任扩展
最近,人工智能公司 Anthropic 发布了其 “负责任扩展” 政策的最新更新,明确了哪些模型需要额外的安全保护。这一举措旨在确保在推出新技术前,能够有效防范可能的风险。
2025-01-20 20:33:40 181人关注
AI安全警报!Claude设备控制功能遭黑客突破,引发安全担忧
在Anthropic公司刚刚推出让Claude能够控制设备的Computer Use功能不到两个月,安全研究人员就发现了其潜在的安全漏洞。网络安全专家Johann Rehnberger最新披露的研究结果令人震惊:通过简单的提示词注入,AI竟然可以被诱导下载并运行恶意软件。
2025-01-11 10:39:23 91人关注
Anthropic 扩大漏洞奖励计划,测试下一代AI安全系统
最近,人工智能公司 Anthropic 宣布将扩大其漏洞奖励计划,旨在测试一种 “下一代 AI 安全缓解系统”。这个新计划主要集中在识别和防御所谓的 “通用越狱攻击”。为了确保技术的安全性,Anthropic 特别关注一些高风险领域,包括化学、生物、放射和核(CBRN)防御,以及网络安全。
2025-01-04 10:19:18 117人关注
对抗Deepfake!中科院女工程师开源AI模型保护女性
近期,一场由Deepfake技术引发的风波在韩国掀起轩然大波,引发全球关注。据报道,韩国有近22万人通过即时通讯应用Telegram传播AI深度伪造的色情图片,对众多女性造成了难以估量的伤害。这一事件不仅让人联想起震惊韩国社会的"N号房事件",更让人深思AI技术滥用所带来的社会伤害。
2024-12-27 14:39:10 64人关注
LatticeFlow揭露了OpenAI等大科技公司AI模型的合规漏洞
近日,一项由瑞士初创公司 LatticeFlow 开发的 AI 模型合规检查工具引起了广泛关注。该工具测试了多家大科技公司,包括 Meta 和 OpenAI,开发的生成性 AI 模型,结果显示,这些模型在网络安全和歧视性输出等关键领域存在明显不足。
2024-12-16 09:36:44 112人关注
OpenAI视频模型Sora惨遭短暂泄露 来自艺术家们的反击与抗议
自今年2月份OpenAI 首次预告了其文本转视频 AI 模型 Sora,之后一直没有提供任何具体的更新。日前,一群参与 OpenAI 新型文本转视频 AI 模型 Sora 的测试艺术家,因对公司的不满而泄露了该模型的早期访问权限。