- 上云资讯 -
2025-09-12 17:18:45 60人关注
挑战主流认知!蚂蚁、人大在2025外滩大会发布行业首个原生MoE扩散语言模型
蚂蚁集团和人民大学联合研发原生MoE架构扩散语言模型(dLLM) LLaDA-MoE,在约20T数据上完成了从零训练MoE架构的扩散语言模型,验证了工业级大规模训练的扩展性和稳定性;效果超过此前发布稠密扩散语言模型LLaDA1.0/1.5和Dream-7B,比肩等效自回归模型,并保有数倍的推理速度优势。模型将在近期完全开源,以推动全球AI社区在dLLM上的技术发展。
MoE架构扩散语言模型 LLaDA-MoE模型开源 dLLM技术发展 工业级大规模训练 扩散语言模型推理速度优势 AI社区技术推动
2025-09-02 08:16:39 183人关注
美团发布 LongCat-Flash-Chat:560B 参数模型再创新高,智能体表现惊艳!
近日,美团正式发布并开源了其最新的 AI 大模型 ——LongCat-Flash-Chat。这款模型以560B 的总参数量和18.6B 到31.3B 的激活参数范围,展现了其在计算效率与性能之间的优越平衡。LongCat-Flash 采用了创新的混合专家模型(MoE)架构,利用 “零计算专家” 机制,使得每个 token 在处理时仅激活必要的参数,确保算力高效利用。
2025-08-05 15:10:19 162人关注
OpenAI重磅开源!GPT-OSS模型泄露,116亿参数MoE架构震撼曝光,AI新纪元来袭?
近日,网络上流传出OpenAI即将推出开源模型系列“GPT-OSS”(GPT Open Source Software)的重大信息泄露,引发业界广泛关注。据泄露的配置文件,这一操作系统系列模型参数规模从20亿到120亿不等,采用先进的MoE(Mixture of Experts)架构,结合长上下文扩展和高效注意力机制,展现出强大的性能潜力。AIbase编辑团队综合最新信息,为您深度解析GPT-OSS的技术亮点及其对AI行业的潜在影响。
2025-07-12 16:12:20 688人关注
月之暗面Kimi K2 模型发布并开源 擅长代码与 Agentic 任务
月之暗面公司正式发布了其最新力作——Kimi K2模型,并同步宣布开源。这款基于MoE架构的基础模型,凭借其强大的代码能力、卓越的通用Agent任务处理能力,一经发布便在AI领域引起了广泛关注。
2025-06-22 08:31:17 178人关注
蚂蚁开源轻量级MoE推理模型Ring-lite
近日,蚂蚁技术团队宣布正式开源其轻量级推理模型Ring-lite。该模型在多项推理榜单上取得了显著成绩,实现了轻量级推理模型的SOTA效果,再次验证了MoE架构的推理潜力。
2025-01-03 21:13:40 162人关注
元象发布MoE开源大模型XVERSE-MoE-A36B 激活参数达36B
深圳元象信息科技有限公司近日宣布,公司已成功发布中国最大的Mixture of Experts(MoE)开源大模型——XVERSE-MoE-A36B。这款模型的发布标志着中国在AI领域的一大进步,将国产开源技术提升至国际领先水平。