微信扫码
添加专属顾问
2025-06-30 16:29:19 62人关注
近日,百度正式宣布开源其文心大模型4.5系列,共推出了十款模型,包括47B、3B 激活参数的混合专家(MoE)模型,以及0.3B 参数的稠密型模型。此次开源不仅实现了预训练权重的完整公开,还提供了推理代码,标志着百度在大模型领域的重大进展。
百度文心大模型4.5 文心大模型开源 MoE模型 大模型预训练权重 大模型推理代码 百度大模型进展