LetsClouds-Logo
AI对话 上云服务 上云资讯 解决方案 关于我们
售前咨询 021-50583875
微信二维码

微信扫码

添加专属顾问

- 上云资讯 -

阿里云云原生 阿里云开发者 腾讯云开发者 火山引擎开发者社区 魔搭ModelScope社区 微软科技 Azure云科技 Zilliz OpenAI Anthropic Gemini LangChain Hugging Face Mistral

2025-04-28 16:34:16 79人关注

AI助力网络安全,从被动反应到主动防御的新时代

在当今数字化时代,网络安全正经历一场前所未有的变革。传统的网络安全防护方法通常是反应式的,依赖于手动监测和静态警报,而如今,人工智能(AI)的应用正在推动网络安全进入一个主动防御的新阶段。

AI网络安全 主动防御技术 AI安全防御策略 AI在网络安全中的应用 AI安全技术原理

2025-04-19 10:29:27 162人关注

微软全新开源模型 MAI-DS-R1:敏感话题响应提升,安全风险降低

微软在其官网上正式开源了 DeepSeek-R1的魔改版 ——MAI-DS-R1。这一新模型在保留原有推理性能的基础上,进行了显著的增强,尤其在对敏感话题的响应能力上取得了巨大的突破。

Microsoft MAI DS-R1 安全响应 AI安全技术 微软AI模型 AI响应优化

2025-04-14 12:17:40 109人关注

​英国将 “AI安全研究所” 更名为 “AI安全研究院”,加速AI产业发展

英国政府近期宣布,将原本名为 “AI 安全研究所” 的机构更名为 “AI 安全研究院”,此举标志着政府在 AI 领域战略的重大转变。新的名称不仅反映了机构的职能变化,也表明了英国政府在推动 AI 产业发展方面的坚定决心。

AI安全研究所 英国AI安全 AI行业加速 AI安全技术 UK AI安全政策

2025-04-08 16:33:43 170人关注

​谷歌推全新AI安全模型Sec-Gemini v1,秒级洞悉网络攻击根源

谷歌在其官方安全博客上宣布推出一项令人瞩目的创新——Sec-Gemini v1,这是一款全新的实验性人工智能模型,专注于推动网络安全AI领域的发展。此举标志着谷歌在利用AI技术应对日益严峻的网络威胁方面迈出了重要一步。

Google AI安全模型 SEC-Gemini AI安全技术 Google AI模型 AI安全架构

2025-04-01 16:33:30 84人关注

Anthropic强化AI模型安全措施,确保技术负责任扩展

最近,人工智能公司 Anthropic 发布了其 “负责任扩展” 政策的最新更新,明确了哪些模型需要额外的安全保护。这一举措旨在确保在推出新技术前,能够有效防范可能的风险。

Anthropic AI模型 AI模型安全 负责任扩展 Anthropic新闻 AI安全技术

2025-03-30 16:38:37 83人关注

优刻得与 360 集团携手共推 AI 安全生态系统

近日,云计算和人工智能领域的先锋企业优刻得宣布与互联网安全巨头360集团达成战略合作。此次合作聚焦于优刻得的 DeepSeek 一体机与360的 AI 安全产品,旨在共同推动国产大模型的安全应用与创新。

UCloud 360 AI安全生态系统 AI安全技术 云计算安全解决方案 企业级AI防护

2025-03-12 12:26:32 216人关注

奇安信与 DeepSeek 深度合作,推出 QAX 安全大模型

近日,奇安信公司宣布已成功完成与 DeepSeek(深度求索)的全面深度接入,标志着其 QAX 安全大模型的进一步应用与发展。奇安信表示,这一安全大模型已在多个关键领域展开了深度整合,涵盖了威胁研判、安全运营、渗透测试与漏洞管理、身份与访问管理等重要场景。

千芯科技 深度求索 奇安信 安全大模型 AI安全技术 大模型安全应用

2025-03-11 14:38:10 152人关注

Anthropic 推出“体质分类器”:成功阻止95% 的模型越狱尝试

人工智能公司 Anthropic 近日宣布开发了一种名为“体质分类器”的新安全方法,旨在保护语言模型免受恶意操纵。该技术专门针对“通用越狱”——一种试图系统性绕过所有安全措施的输入方式,以防止 AI 模型生成有害内容。

Anthropic Constitution Classifier 模型越狱防护 AI安全技术 大模型安全机制 Anthropic AI 安全创新

2025-02-15 14:13:31 191人关注

McAfee推出新 AI 工具,智能识别邮件和短信诈骗

在当今网络诈骗不断增多的背景下,知名安全软件公司McAfee在2025年国际消费电子展(CES2025)上推出了一款全新的人工智能诈骗检测工具。这一工具旨在帮助用户在受到诈骗之前,识别出各种邮件、短信和视频诈骗信息,提升个人信息的安全性。

McAfee AI工具 AI防诈骗工具 电子邮件诈骗检测 SMS诈骗识别 AI安全技术

2025-02-15 10:34:39 137人关注

OpenAI 引领 AI 安全新标准:重磅发布红队测试创新

OpenAI 近日在 AI 安全领域展示了其更为积极的红队测试策略,超越了其竞争对手,尤其是在多步强化学习和外部红队测试这两个关键领域。公司发布的两篇论文为提升 AI 模型的质量、可靠性和安全性设立了新的行业标准。

OpenAI AI安全 AI安全红队 AI安全创新 OpenAI安全团队 AI安全技术

2025-02-03 10:26:44 168人关注

OpenAI 推出新 AI 安全方法,可主动推理规则拒绝危险请求!

OpenAI 公布了一种新的 AI 安全方法,旨在通过改变 AI 系统处理安全规则的方式来提升其安全性。这种新的 o 系列模型不再仅仅依赖于通过示例学习好与坏行为,而是能够理解并积极推理特定的安全指南。

OpenAI安全方法 AI安全技术 OpenAI拒绝危险请求 AI安全防护措施 OpenAI安全策略

2025-02-01 16:27:45 10557人关注

360无偿为DeepSeek提供安全服务 纳米AI搜索开通“DeepSeek高速专线”

近日,国产大模型DeepSeek在全球AI领域崭露头角,其展现出的技术实力令人瞩目,但同时也遭遇了外部网络攻击的威胁。在此背景下,360集团创始人周鸿祎宣布,360将无偿为DeepSeek提供全方位的网络安全防护,以实际行动支持国产AI技术的发展。

360免费安全 DeepSeek Nano AI AI安全技术 免费安全解决方案 DeepSeek AI应用

2025-01-28 00:44:16 102人关注

Nvidia推出NIM微服务,加强企业AI代理安全控制

Nvidia近日发布三项新的NIM(Nvidia Infrastructure Microservices)微服务,作为NeMo Guardrails开源工具包的扩展,旨在为企业AI代理应用提供更精细的安全管控能力。

NVIDIA NIM微服务 AI安全 AI微服务架构 NVIDIA AI解决方案 AI安全技术

2025-01-27 22:17:40 116人关注

Nvidia重磅推出三大AI安全工具,以控制AI聊天机器人

近日,Nvidia 宣布在其 NeMo Guardrails 平台上新增三项安全功能,旨在帮助企业更好地管理和控制 AI 聊天机器人。这些微服务专门针对 AI 安全和内容审核中的常见挑战,提供了一系列实用的解决方案。

NVIDIA AI安全工具 AI安全技术 聊天机器人安全 AI安全解决方案 NVIDIA AI工具应用

2025-01-13 12:14:37 155人关注

OpenAI承诺向美国AI安全研究所提供下一个AI模型早期访问权限

近日,OpenAI 首席执行官山姆·奥特曼(Sam Altman)透露,OpenAI 正与旨在评估和应对 AI 平台风险的美国联邦政府机构——美国 AI 安全研究所合作,将为其提供下一个主要生成式 AI 模型的早期访问权限,以进行安全测试。

OpenAI AI安全研究所 AI安全早期访问 OpenAI安全研究 AI安全技术 AI安全措施 OpenAI早期访问计划

2024-12-30 19:20:11 77人关注

美国特勤局神秘投资 5 万美元 AI 技术,背后意图成谜

最近,美国特勤局悄然涉足人工智能领域,花费超过5万美元购买微软 Azure 和 OpenAI 的云服务。这一举动引发了外界的广泛关注,但特勤局对此却始终保持缄默,没有透露具体的使用目的和计划。这一信息是通过媒体获取的文件曝光出来的,显示出特勤局对 AI 技术的日益关注。

美国特勤局AI投资 50万美元AI投资 特勤局AI技术应用 政府AI投资案例 AI安全技术发展

2024-12-30 07:39:20 93人关注

​G42 收购阿布扎比网络安全公司 CPX,强化 AI 安全防护

阿布扎比的人工智能与云计算公司 G42最近宣布收购本地网络安全领军企业 CPX。这一战略收购将为 G42的产品组合注入强大的网络安全能力,使其在人工智能价值链中更具竞争力。

G42收购CPX AI安全收购案例 CPX AI安全技术 企业并购AI安全公司 G42战略布局AI安全

2024-12-25 13:36:46 68人关注

打错字也能 “越狱”GPT-4o、Claude :揭秘AI聊天机器人的脆弱性!

近期的研究表明,市场上最先进的 AI 聊天机器人竟然对一些简单的技巧十分敏感,甚至可以被轻易 “越狱”。根据《404媒体》的报道,Claude 聊天机器人的开发公司 Anthropic 发现,只需在提示中故意加入一些拼写错误,便能使这些大型语言模型忽视自身的安全防护措施,生成一些本应拒绝回答的内容。

AI聊天机器人漏洞 AI安全风险 聊天机器人安全隐患 AI漏洞分析 AI安全技术

推荐阅读

加载中...

上云服务

沪ICP备14033669号-10