LetsClouds-Logo
AI对话 上云服务 上云资讯 解决方案 关于我们
售前咨询 021-50583875
微信二维码

微信扫码

添加专属顾问

- 上云资讯 -

阿里云云原生 阿里云开发者 腾讯云开发者 火山引擎开发者社区 魔搭ModelScope社区 微软科技 Azure云科技 Zilliz OpenAI Anthropic Gemini LangChain Hugging Face Mistral

2025-09-12 17:18:45 60人关注

挑战主流认知!蚂蚁、人大在2025外滩大会发布行业首个原生MoE扩散语言模型

蚂蚁集团和人民大学联合研发原生MoE架构扩散语言模型(dLLM) LLaDA-MoE,在约20T数据上完成了从零训练MoE架构的扩散语言模型,验证了工业级大规模训练的扩展性和稳定性;效果超过此前发布稠密扩散语言模型LLaDA1.0/1.5和Dream-7B,比肩等效自回归模型,并保有数倍的推理速度优势。模型将在近期完全开源,以推动全球AI社区在dLLM上的技术发展。

MoE架构扩散语言模型 LLaDA-MoE模型开源 dLLM技术发展 工业级大规模训练 扩散语言模型推理速度优势 AI社区技术推动

2025-07-15 14:42:22 640人关注

硅基流动上线强大编码模型 Kimi K2,助力智能应用发展

近日,硅基流动(SiliconCloud)平台正式上线了月之暗面开源的 MoE 模型 Kimi K2。这款模型总参数达到1T,激活参数为32B,在各项基准性能测试中表现不俗,能够与顶尖的商业模型相媲美。Kimi K2特别擅长编码和通用智能体(Agent)任务,为开发者提供了一个强有力的工具。

硅基流动平台 Kimi K2模型 MoE模型 1T参数大模型 通用智能体任务 编码能力优化

2025-06-30 16:29:19 98人关注

百度重磅开源文心大模型 4.5 系列,国内大模型市场再掀波澜!

近日,百度正式宣布开源其文心大模型4.5系列,共推出了十款模型,包括47B、3B 激活参数的混合专家(MoE)模型,以及0.3B 参数的稠密型模型。此次开源不仅实现了预训练权重的完整公开,还提供了推理代码,标志着百度在大模型领域的重大进展。

百度文心大模型4.5 文心大模型开源 MoE模型 大模型预训练权重 大模型推理代码 百度大模型进展

2025-05-22 14:18:20 125人关注

DeepSeek开源周第二日:首个面向MoE模型的开源EP通信库

Deepseek 公布了开源周第二天的产品,首个面向MoE模型的开源EP通信库,支持实现了混合专家模型训练推理的全栈优化。

DeepSeek开源周 MoE模型 EP通信库 开源通信库 MoE模型通信优化

2025-03-27 16:27:43 215人关注

腾讯发布Hunyuan-TurboS:首款超大型混合Transformer-Mamba MoE模型震撼登场

今日,腾讯在X平台上正式宣布推出其最新AI模型Hunyuan-TurboS,这款被誉为“首款超大型Hybrid-Transformer-Mamba MoE模型”的产品迅速引发全球科技圈的热议。根据X用户披露的信息,Hunyuan-TurboS通过融合Mamba的高效长序列处理能力和Transformer的强大上下文理解能力,成功克服了传统纯Transformer模型在长文本训练和推理上的瓶颈,展现出令人瞩目的性能突破。

腾讯混元 TurboS Transformer Mamba MoE 大模型技术 AI模型架构 Transformer优化

2025-01-04 18:42:31 128人关注

​AI2 推出全新开源模型 OLMoE:高效、强大且不再昂贵!

最近,艾伦人工智能研究所(AI2)发布了一款全新的开源模型 OLMoE,旨在满足对大型语言模型(LLM)的需求。这个模型不仅性能优异,而且成本相对低廉。

AI大模型 OLMoE模型 高效AI模型 强大AI模型 经济实惠AI解决方案 AI模型性能优化

推荐阅读

加载中...

上云服务

沪ICP备14033669号-10