- 上云资讯 -
2025-07-12 16:12:20 486人关注
月之暗面Kimi K2 模型发布并开源 擅长代码与 Agentic 任务
月之暗面公司正式发布了其最新力作——Kimi K2模型,并同步宣布开源。这款基于MoE架构的基础模型,凭借其强大的代码能力、卓越的通用Agent任务处理能力,一经发布便在AI领域引起了广泛关注。
2025-06-30 11:22:37 47人关注
华为开源盘古7B稠密和72B混合专家模型
6月30日,华为于正式宣布开源盘古70亿参数的稠密模型、盘古Pro MoE720亿参数的混合专家模型,以及基于升腾的模型推理技术。
2025-06-22 08:31:17 116人关注
蚂蚁开源轻量级MoE推理模型Ring-lite
近日,蚂蚁技术团队宣布正式开源其轻量级推理模型Ring-lite。该模型在多项推理榜单上取得了显著成绩,实现了轻量级推理模型的SOTA效果,再次验证了MoE架构的推理潜力。
2025-05-22 14:18:20 66人关注
DeepSeek开源周第二日:首个面向MoE模型的开源EP通信库
Deepseek 公布了开源周第二天的产品,首个面向MoE模型的开源EP通信库,支持实现了混合专家模型训练推理的全栈优化。
2025-03-27 16:27:43 123人关注
腾讯发布Hunyuan-TurboS:首款超大型混合Transformer-Mamba MoE模型震撼登场
今日,腾讯在X平台上正式宣布推出其最新AI模型Hunyuan-TurboS,这款被誉为“首款超大型Hybrid-Transformer-Mamba MoE模型”的产品迅速引发全球科技圈的热议。根据X用户披露的信息,Hunyuan-TurboS通过融合Mamba的高效长序列处理能力和Transformer的强大上下文理解能力,成功克服了传统纯Transformer模型在长文本训练和推理上的瓶颈,展现出令人瞩目的性能突破。
腾讯混元 TurboS Transformer Mamba MoE 大模型技术 AI模型架构 Transformer优化
2025-01-18 02:28:26 78人关注
谷歌提出百万专家Mixture 释放进一步扩展 Transformer 的潜力
Google DeepMind提出的百万专家Mixture模型,一个在Transformer架构上迈出了革命性步伐的研究。
Google Mixture Experts Transformer 模型 MoE 技术 大模型架构 AI 模型优化 Google AI 技术突破
2025-01-03 21:13:40 116人关注
元象发布MoE开源大模型XVERSE-MoE-A36B 激活参数达36B
深圳元象信息科技有限公司近日宣布,公司已成功发布中国最大的Mixture of Experts(MoE)开源大模型——XVERSE-MoE-A36B。这款模型的发布标志着中国在AI领域的一大进步,将国产开源技术提升至国际领先水平。