LetsClouds-Logo
AI对话 上云服务 上云资讯 解决方案 关于我们
售前咨询 021-50583875
微信二维码

微信扫码

添加专属顾问

- 上云资讯 -

阿里云云原生 阿里云开发者 腾讯云开发者 火山引擎开发者社区 魔搭ModelScope社区 微软科技 Azure云科技 Zilliz OpenAI Anthropic Gemini LangChain Hugging Face Mistral

2025-09-12 17:18:45 60人关注

挑战主流认知!蚂蚁、人大在2025外滩大会发布行业首个原生MoE扩散语言模型

蚂蚁集团和人民大学联合研发原生MoE架构扩散语言模型(dLLM) LLaDA-MoE,在约20T数据上完成了从零训练MoE架构的扩散语言模型,验证了工业级大规模训练的扩展性和稳定性;效果超过此前发布稠密扩散语言模型LLaDA1.0/1.5和Dream-7B,比肩等效自回归模型,并保有数倍的推理速度优势。模型将在近期完全开源,以推动全球AI社区在dLLM上的技术发展。

MoE架构扩散语言模型 LLaDA-MoE模型开源 dLLM技术发展 工业级大规模训练 扩散语言模型推理速度优势 AI社区技术推动

2025-09-02 08:16:39 183人关注

美团发布 LongCat-Flash-Chat:560B 参数模型再创新高,智能体表现惊艳!

近日,美团正式发布并开源了其最新的 AI 大模型 ——LongCat-Flash-Chat。这款模型以560B 的总参数量和18.6B 到31.3B 的激活参数范围,展现了其在计算效率与性能之间的优越平衡。LongCat-Flash 采用了创新的混合专家模型(MoE)架构,利用 “零计算专家” 机制,使得每个 token 在处理时仅激活必要的参数,确保算力高效利用。

美团AI大模型 LongCat-Flash-Chat 混合专家模型架构 MoE架构优势 零计算专家机制 大模型参数优化

2025-08-13 14:37:44 72人关注

腾讯混元发布52B参数多模态理解模型Large-Vision,支持任意分辨率全场景输入

腾讯混元团队近日发布了全新的多模态理解模型——混元Large-Vision,该模型采用腾讯混元擅长的MoE(专家混合)架构,激活参数达到52B规模,在性能与效率之间实现了良好平衡。

腾讯混元Large-Vision 多模态理解模型 MoE架构 混元大模型 52B参数模型 腾讯混元团队

2025-08-05 15:10:19 162人关注

OpenAI重磅开源!GPT-OSS模型泄露,116亿参数MoE架构震撼曝光,AI新纪元来袭?

近日,网络上流传出OpenAI即将推出开源模型系列“GPT-OSS”(GPT Open Source Software)的重大信息泄露,引发业界广泛关注。据泄露的配置文件,这一操作系统系列模型参数规模从20亿到120亿不等,采用先进的MoE(Mixture of Experts)架构,结合长上下文扩展和高效注意力机制,展现出强大的性能潜力。AIbase编辑团队综合最新信息,为您深度解析GPT-OSS的技术亮点及其对AI行业的潜在影响。

OpenAI开源模型 GPT-OSS技术解析 MoE架构优势 长上下文扩展技术 高效注意力机制 AI行业影响

2025-08-02 17:13:19 109人关注

阿里开源通义万相Wan2.2:全球首个MoE架构视频生成模型震撼发布

阿里巴巴今晚正式开源视频生成模型"通义万相Wan2.2",此次发布包含三款核心模型:文生视频(Wan2.2-T2V-A14B)、图生视频(Wan2.2-I2V-A14B)和统一视频生成(Wan2.2-IT2V-5B)模型,标志着视频生成技术迎来重大突破。

通义万相Wan2.2 视频生成模型 文生视频模型 图生视频模型 统一视频生成模型 阿里巴巴开源AI

2025-07-12 16:12:20 688人关注

月之暗面Kimi K2 模型发布并开源 擅长代码与 Agentic 任务

月之暗面公司正式发布了其最新力作——Kimi K2模型,并同步宣布开源。这款基于MoE架构的基础模型,凭借其强大的代码能力、卓越的通用Agent任务处理能力,一经发布便在AI领域引起了广泛关注。

Kimi K2模型 MoE架构基础模型 开源AI模型 代码能力AI模型 通用Agent任务处理 月之暗面公司AI技术

2025-06-28 08:22:28 187人关注

腾讯开源轻量级混元-A13B模型 1张中低端GPU卡即可部署

腾讯正式发布并开源混元大模型家族的新成员——混元-A13B模型。该模型采用基于专家混合(MoE)架构,总参数规模达800亿,激活参数为130亿,在保持顶尖开源模型效果的同时,大幅降低了推理延迟与计算开销,为个人开发者和中小企业提供了更具性价比的AI解决方案。

腾讯混元大模型 混元-A13B模型 MoE架构 开源AI模型 AI推理优化 中小企业AI解决方案

2025-06-22 08:31:17 178人关注

蚂蚁开源轻量级MoE推理模型Ring-lite

近日,蚂蚁技术团队宣布正式开源其轻量级推理模型Ring-lite。该模型在多项推理榜单上取得了显著成绩,实现了轻量级推理模型的SOTA效果,再次验证了MoE架构的推理潜力。

蚂蚁技术团队开源 Ring-lite推理模型 轻量级推理模型SOTA MoE架构推理潜力 推理模型榜单成绩

2025-01-03 21:13:40 162人关注

元象发布MoE开源大模型XVERSE-MoE-A36B 激活参数达36B

深圳元象信息科技有限公司近日宣布,公司已成功发布中国最大的Mixture of Experts(MoE)开源大模型——XVERSE-MoE-A36B。这款模型的发布标志着中国在AI领域的一大进步,将国产开源技术提升至国际领先水平。

Xverse-MoE 36B参数大模型 MoE架构优势 大模型技术原理 大模型应用场景

2024-12-25 13:19:16 113人关注

OPPO率先实现终端MoE落地 AI处理效率提升40%

OPPO今日宣布在全球首次成功将专家混合模型(MoE)架构应用于移动设备。这一突破性进展显著提升了AI处理效率,为终端AI技术的进一步发展开辟了新途径,同时也为AI与移动硬件的深度融合奠定了基础。

OPPO MoE AI效率提升 大模型技术 MoE架构优化 AI性能优化 OPPO AI创新

推荐阅读

加载中...

上云服务

沪ICP备14033669号-10