LetsClouds-Logo
AI对话 上云服务 上云资讯 解决方案 关于我们
售前咨询 021-50583875
微信二维码

微信扫码

添加专属顾问

- 上云资讯 -

阿里云云原生 阿里云开发者 腾讯云开发者 火山引擎开发者社区 魔搭ModelScope社区 微软科技 Azure云科技 Zilliz OpenAI Anthropic Gemini LangChain Hugging Face Mistral

2025-06-19 10:17:28 33人关注

揭秘 AI 黑箱:OpenAI 如何调控模型 “毒性” 行为!

近日,OpenAI 发布了一项令人振奋的研究,揭示了人工智能(AI)模型中存在的可调控特征,这些特征直接与模型的 “异常行为” 相关。研究人员通过分析 AI 模型的内部表征,发现了模式,这些模式在模型表现出不安全行为时会被激活。例如,他们找到了一个与有害行为相关的特征,意味着 AI 可能会给出不当的回答,如撒谎或提出不负责任的建议。

AI模型异常行为 AI可调控特征 AI内部表征分析 AI有害行为特征 OpenAI最新研究 AI模型安全调控

2025-05-04 14:38:43 133人关注

警惕!马斯克的新AI模型Grok 3被曝存在严重安全漏洞,黑客可轻松操控!

AI 安全公司 Adversa AI 发布了一项令人震惊的报告,称埃隆・马斯克的创业公司 xAI 刚发布的 Grok3模型在网络安全方面存在重大漏洞。Adversa 的研究团队发现,这款最新的 AI 模型容易受到 “简单的越狱攻击”,这可能使不法分子能够获取诸如 “如何诱骗儿童、处理尸体、提取 DMT 以及制造炸弹” 等敏感信息。

Elon Musk Grok 3 AI安全漏洞 AI安全风险 AI技术漏洞 AI模型安全性

2025-04-01 16:33:30 84人关注

Anthropic强化AI模型安全措施,确保技术负责任扩展

最近,人工智能公司 Anthropic 发布了其 “负责任扩展” 政策的最新更新,明确了哪些模型需要额外的安全保护。这一举措旨在确保在推出新技术前,能够有效防范可能的风险。

Anthropic AI模型 AI模型安全 负责任扩展 Anthropic新闻 AI安全技术

2025-02-28 10:20:11 86人关注

研究发现,在不安全代码上训练的 AI 模型变得有毒

近日,一组 AI 研究者发现了一个令人关注的现象:当模型在不安全的代码上进行微调时,会产生一些相当有毒的输出。

AI大模型训练 不安全代码检测 有毒代码识别 AI模型安全风险 AI代码安全训练

2025-01-23 00:26:21 103人关注

电磁信号窃取:AI 模型盗窃背后的隐秘危机!

近期,北卡罗来纳州立大学的研究人员提出了一种新方法,通过捕获计算机发出的电磁信号来提取人工智能(AI)模型,准确率高达99% 以上。这一发现可能对商业 AI 发展构成挑战,尤其是在 OpenAI、Anthropic 和谷歌等公司已经大量投资于专有模型的背景下。不过,专家们指出,这种技术在现实世界中的实际影响以及防御措施仍不明确。

电磁信号窃取 AI模型窃取 电磁信号安全 AI模型安全 AI安全威胁

2025-01-20 20:33:40 181人关注

AI安全警报!Claude设备控制功能遭黑客突破,引发安全担忧

在Anthropic公司刚刚推出让Claude能够控制设备的Computer Use功能不到两个月,安全研究人员就发现了其潜在的安全漏洞。网络安全专家Johann Rehnberger最新披露的研究结果令人震惊:通过简单的提示词注入,AI竟然可以被诱导下载并运行恶意软件。

AI安全 Claude安全漏洞 AI黑客攻击 AI模型安全隐患 AI安全防护措施

2025-01-11 10:39:23 91人关注

Anthropic 扩大漏洞奖励计划,测试下一代AI安全系统

最近,人工智能公司 Anthropic 宣布将扩大其漏洞奖励计划,旨在测试一种 “下一代 AI 安全缓解系统”。这个新计划主要集中在识别和防御所谓的 “通用越狱攻击”。为了确保技术的安全性,Anthropic 特别关注一些高风险领域,包括化学、生物、放射和核(CBRN)防御,以及网络安全。

Anthropic AI安全 漏洞赏金计划 AI模型安全 Anthropic新闻

2025-01-04 10:19:18 117人关注

对抗Deepfake!中科院女工程师开源AI模型保护女性

近期,一场由Deepfake技术引发的风波在韩国掀起轩然大波,引发全球关注。据报道,韩国有近22万人通过即时通讯应用Telegram传播AI深度伪造的色情图片,对众多女性造成了难以估量的伤害。这一事件不仅让人联想起震惊韩国社会的"N号房事件",更让人深思AI技术滥用所带来的社会伤害。

AI反Deepfake技术 女性保护AI模型 Deepfake防御技术 AI模型安全应用 女性隐私保护AI

2024-12-27 14:39:10 64人关注

LatticeFlow揭露了OpenAI等大科技公司AI模型的合规漏洞

近日,一项由瑞士初创公司 LatticeFlow 开发的 AI 模型合规检查工具引起了广泛关注。该工具测试了多家大科技公司,包括 Meta 和 OpenAI,开发的生成性 AI 模型,结果显示,这些模型在网络安全和歧视性输出等关键领域存在明显不足。

AI模型合规性问题 LatticeFlow与OpenAI合作 AI模型缺陷检测 AI模型安全漏洞 AI合规性解决方案

2024-12-19 22:15:44 71人关注

AI错误建议酿成安全隐患:从蘑菇识别到烹饪指导

近日,一起发生在Facebook蘑菇爱好者群组的事件,再次引发了对AI应用安全性的担忧。据404Media报道,一个名为"FungiFriend"的AI代理潜入了拥有1.3万成员的"东北蘑菇识别与讨论"群组,并给出了具有潜在致命风险的错误建议。

AI错误分析 AI安全风险 AI模型安全隐患 AI技术漏洞 AI系统可靠性

2024-12-16 09:36:44 112人关注

OpenAI视频模型Sora惨遭短暂泄露 来自艺术家们的反击与抗议

自今年2月份OpenAI 首次预告了其文本转视频 AI 模型 Sora,之后一直没有提供任何具体的更新。日前,一群参与 OpenAI 新型文本转视频 AI 模型 Sora 的测试艺术家,因对公司的不满而泄露了该模型的早期访问权限。

OpenAI Sora模型泄露 艺术家抗议 Sora模型争议 AI模型安全性问题 OpenAI新闻事件

推荐阅读

加载中...

上云服务

沪ICP备14033669号-10