LetsClouds-Logo
AI对话 上云服务 上云资讯 解决方案 关于我们
售前咨询 021-50583875
微信二维码

微信扫码

添加专属顾问

- 上云资讯 -

阿里云云原生 阿里云开发者 腾讯云开发者 火山引擎开发者社区 魔搭ModelScope社区 微软科技 Azure云科技 Zilliz OpenAI Anthropic Gemini LangChain Hugging Face Mistral

2025-09-12 17:18:45 60人关注

挑战主流认知!蚂蚁、人大在2025外滩大会发布行业首个原生MoE扩散语言模型

蚂蚁集团和人民大学联合研发原生MoE架构扩散语言模型(dLLM) LLaDA-MoE,在约20T数据上完成了从零训练MoE架构的扩散语言模型,验证了工业级大规模训练的扩展性和稳定性;效果超过此前发布稠密扩散语言模型LLaDA1.0/1.5和Dream-7B,比肩等效自回归模型,并保有数倍的推理速度优势。模型将在近期完全开源,以推动全球AI社区在dLLM上的技术发展。

MoE架构扩散语言模型 LLaDA-MoE模型开源 dLLM技术发展 工业级大规模训练 扩散语言模型推理速度优势 AI社区技术推动

2025-08-14 10:27:36 60人关注

华人团队破解Token限制,扩散模型的潜力超越自回归三倍!

在 AI 领域,Token 的数量限制一直是一个亟待解决的问题。最近,一项由华人团队完成的研究引起了广泛关注,研究显示,扩散语言模型在 Token 数量受限的情况下,展现出比自回归模型多三倍的数据学习潜力。这一发现可能会为未来的语言模型训练开辟新局面。

Token数量限制 扩散语言模型优势 自回归模型比较 语言模型训练新技术 华人AI团队研究

2025-04-28 10:19:18 269人关注

ChatDLM:全球首个扩散语言模型即将开源,引领AI技术新突破

据最新消息,全球首个扩散语言模型(Diffusion Language Model,DLM)ChatDLM即将开源,为全球开发者与研究者提供全新的AI工具,预计将推动生成式AI技术的进一步发展。

ChatDLM 扩散语言模型 开源大模型 扩散模型技术 语言模型开源项目

推荐阅读

加载中...

上云服务

沪ICP备14033669号-10