- 上云资讯 -
2025-07-02 09:44:25 76人关注
微软推出 MAI-DxO AI 系统,医疗诊断准确率提升四倍
微软近日发布了一款全新的 AI 系统 MAI-DxO,旨在显著提升复杂医疗病例的诊断准确性。据悉,该系统的诊断准确率是经验丰富医生的四倍,同时能够将医疗成本降低近70%。这一技术通过一个新的基准测试进行评估,模拟了真实的逐步诊断过程。
2025-06-10 10:24:35 50人关注
亚马逊云科技发布量子计算芯片 Ocelot:纠错成本降低90%
亚马逊云科技(AWS)正式宣布推出其首款量子计算芯片“Ocelot”,标志着其在量子计算领域的重大进展。与当前主流方法相比,Ocelot 芯片能够将量子纠错的成本降低高达90%。这一创新成果由位于加州理工学院的 AWS 量子计算中心团队研发,并已在权威学术期刊《自然》(Nature)上发表相关研究论文。
2025-06-08 14:11:37 53人关注
文生图模型Ideogram 2a 震撼发布:速度翻倍、成本减半,英文排版媲美人类设计
2025年2月27日,人工智能图像生成服务 Ideogram 迎来了备受瞩目的更新,其最新模型“Ideogram2a”正式上线。这一新模型不仅在生成速度上实现了显著提升,同时成本降低了一半,再次巩固了 Ideogram 在文生图(Text-to-Image)领域的领先地位。
2025-05-10 10:14:36 89人关注
Gemini API推出隐式缓存功能,开发者成本降低75%
Gemini API推出隐式缓存(Implicit Caching)功能,为开发者带来显著的成本优化体验。新功能无需开发者手动创建缓存,当请求与先前请求共享共同前缀时,系统将自动触发缓存命中,提供高达75%的Token折扣。此更新已覆盖Gemini2.5Pro和2.5Flash模型,进一步提升了AI开发的成本效益。官方详情可参考:https://developers.googleblog.com
2025-03-21 10:37:26 156人关注
硅基流动宣布DeepSeek-R1&V3 API支持批量推理 价格暴降75%
硅基流动 SiliconCloud 平台即日起正式推出 DeepSeek-R1& V3API 的批量推理(Batch Inference)功能。用户现在可以通过批量 API 向 SiliconCloud 发送请求,摆脱实时推理速率的限制,并在预期24小时内完成大规模数据处理任务。
DeepSeek R1 V3 API 批量推理 API价格下调 DeepSeek R1 V3价格优化 大模型推理成本降低
2025-03-20 16:24:39 112人关注
谷歌开源新一代多模态模型 Gemma-3:性能卓越、成本降低 10 倍
谷歌 CEO 桑达尔・皮查伊(Sundar Pichai)在一场发布会上宣布,谷歌开源了最新的多模态大模型 Gemma-3,该模型以低成本、高性能为特点,备受关注。
2025-02-06 10:43:44 1191人关注
谷歌重磅发布Gemini 2.0全系列模型 三款模型性能、成本双双突破
谷歌扩展了其人工智能模型家族,推出了三款新版本的 Gemini2.0模型,分别为基础版 Gemini2.0Flash、经济版 Gemini2.0Flash-Lite 以及实验版 Gemini2.0Pro。这些新模型旨在满足不同的使用需求,并在性能和成本之间提供多样化的平衡。
Google Gemini 2.0模型 大模型性能突破 大模型成本优化 Google Gemini 2.0性能提升 Google Gemini 2.0成本降低
2025-01-28 10:44:35 325人关注
国产开源大模型 DeepSeek R1 发布,性能超越o1模、成本降90%
正文:近期,中国的 DeepSeek 团队重磅推出了其最新开源大模型 R1,受到了广泛关注。R1模型的性能表现极其出色,在多项测试中均超越了 OpenAI 的 o1模型,尤其是在数学和编程方面的评估中表现优异。
2025-01-22 17:30:28 151人关注
OpenAI开放满血o1模型API:成本降低60% 新增高级视觉处理能力
在为期12个工作日的连续直播活动中,OpenAI在第9天面向开发者发布了o1模型的API,并宣布对实时API进行重大升级,支持WebRTC技术。
2025-01-17 18:41:40 103人关注
新的Transformer加速技术FlashAttention-3发布 成本直线下降
全新的Transformer加速技术FlashAttention-3震撼发布啦!这可不仅仅是个升级,它预示着咱们的大型语言模型(LLMs)的推理速度直线上升和成本的直线下降!
2025-01-14 00:42:14 83人关注
Zyphra推小语言模型Zamba2-2.7B: 速度提高一倍,内存成本降低27%
最近,Zyphra 公司发布了全新的 Zamba2-2.7B 语言模型,这一发布在小型语言模型的发展史上具有重要意义。新模型在性能和效率方面取得了显著提升,它的训练数据集达到了大约3万亿个标记,这使得它在性能上可以与 Zamba1-7B 及其他领先的7B 模型相媲美。
2024-12-30 14:21:10 127人关注
韩国VESSL AI 获 1200 万美元融资,可使企业 GPU 成本降低多达 80%
随着人工智能越来越多地融入企业的工作流程和产品,市场上对机器学习操作平台(MLOps)的需求也在不断上升。这类平台帮助企业更轻松地创建、测试和部署机器学习模型。然而,尽管市场上已有不少竞争者,比如 InfuseAIComet 等创业,以及谷歌云、Azure 和 AWS 等大公司,南韩的 VESSL AI 却希望通过聚焦 GPU 费用的优化,找到自己的发展空间。
2024-12-30 04:42:20 170人关注
Anthropic推出信息批量处理API ,效率提升、API调用成本减半
近日,人工智能公司 Anthropic 正式推出了其新产品 —— 消息批量处理 API(Message Batches API)。这项新技术让企业在处理大量数据时的费用减少了50%,这一举措无疑为大数据处理带来了福音。
Anthropic Bulk Processing API API效率优化 成本降低策略 批量处理API Anthropic API应用场景