微信扫码
添加专属顾问
2025-08-13 14:37:44 72人关注
腾讯混元团队近日发布了全新的多模态理解模型——混元Large-Vision,该模型采用腾讯混元擅长的MoE(专家混合)架构,激活参数达到52B规模,在性能与效率之间实现了良好平衡。
腾讯混元Large-Vision 多模态理解模型 MoE架构 混元大模型 52B参数模型 腾讯混元团队