- 上云资讯 -
2025-06-30 11:22:37 47人关注
华为开源盘古7B稠密和72B混合专家模型
6月30日,华为于正式宣布开源盘古70亿参数的稠密模型、盘古Pro MoE720亿参数的混合专家模型,以及基于升腾的模型推理技术。
2025-06-24 08:32:28 81人关注
阿里云推出自动驾驶模型加速框架PAI-TurboX 训练时间可缩短50%
近日,阿里云正式发布面向自动驾驶领域模型的训练、推理加速框架——PAI-TurboX,旨在提升感知、规划控制乃至世界模型的训推效率。该框架在多个行业模型的训练任务中展现出了显著优势,可缩短高达50%的时间。
阿里云PAI-TurboX 自动驾驶模型训练加速 自动驾驶模型推理加速 PAI-TurboX框架优势 自动驾驶世界模型训练
2025-06-18 13:23:13 71人关注
大模型推理大变革!CMU 与英伟达携手推出 Multiverse,实现超高速并行生成
随着人工智能的发展,大型语言模型(LLM)的应用越来越广泛,但目前的推理方式仍然存在不少局限性。传统的自回归生成方式需要逐个生成 token,效率较低且无法充分利用现代硬件的并行计算能力。为了解决这一问题,卡耐基梅隆大学(CMU)与英伟达的研究团队推出了一种名为 Multiverse 的新型生成模型,旨在实现原生并行生成,从根本上改变我们对 LLM 推理的理解。
2025-04-28 10:24:34 123人关注
全球最快推理速度模型!Qafind Labs 发布 ChatDLM 技术
近日,Qafind Labs发布了其最新研发的ChatDLM模型,这一创新成果在人工智能领域引起了广泛关注。ChatDLM是首个将“区块扩散(Block Diffusion)”和“专家混合(MoE)”深度融合的模型,其在GPU上实现了惊人的2,800tokens/s超高推理速度,支持131,072tokens的超大上下文窗口,开启了文档级生成和实时对话的新纪元。
2025-04-21 10:19:18 243人关注
字节跳动研究开源 ChatTS-14B:原生理解并随着时间的推移进行推理
字节跳动研究团队宣布开源 ChatTS-14B,这是一款专为时间序列数据理解和推理设计的140亿参数大型语言模型(LLM)。以 Apache2.0许可协议发布,ChatTS-14B 的开源引发了 AI 社区的广泛关注,被认为是时间序列分析与生成式 AI 结合的重大进展。
2025-04-12 10:41:40 70人关注
AI 模型隐瞒推理过程引发担忧,研究称其 “思考” 常常不可信
在教育中,我们常常被教导要 “展示你的思考过程”,而现在一些高端的 AI 模型声称能够做到这一点。然而,最新的研究却表明,这些模型有时会隐藏真实的推理过程,反而编造出复杂的解释。来自 Anthropic 的研究团队近期对模拟推理(SR)模型进行了深入研究,包括其自家开发的 Claude 系列和 DeepSeek 的 R1模型,发现这些模型在展示其 “思考” 时,常常不透露它们所依赖的外部信息或使用的捷径。
2025-03-21 10:37:26 156人关注
硅基流动宣布DeepSeek-R1&V3 API支持批量推理 价格暴降75%
硅基流动 SiliconCloud 平台即日起正式推出 DeepSeek-R1& V3API 的批量推理(Batch Inference)功能。用户现在可以通过批量 API 向 SiliconCloud 发送请求,摆脱实时推理速率的限制,并在预期24小时内完成大规模数据处理任务。
DeepSeek R1 V3 API 批量推理 API价格下调 DeepSeek R1 V3价格优化 大模型推理成本降低
2025-03-13 18:14:31 417人关注
DeepSeek-R1 模型幻觉问题严重,推理能力与准确性面临挑战
近日,Vectara 的机器学习团队对 DeepSeek 系列的两款模型进行了深入的幻觉测试,结果显示,DeepSeek-R1的幻觉率高达14.3%,显著高于其前身 DeepSeek-V3的3.9%。这表明,在增强推理的过程中,DeepSeek-R1产生了更多不准确或与原始信息不一致的内容。该结果引发了对推理增强大语言模型(LLM)产生幻觉率的广泛讨论。