微信扫码
添加专属顾问
2025-08-13 14:37:44 72人关注
腾讯混元团队近日发布了全新的多模态理解模型——混元Large-Vision,该模型采用腾讯混元擅长的MoE(专家混合)架构,激活参数达到52B规模,在性能与效率之间实现了良好平衡。
腾讯混元Large-Vision 多模态理解模型 MoE架构 混元大模型 52B参数模型 腾讯混元团队
2024-12-23 20:45:43 98人关注
Google在东京举办的Gemma开发者日上发布重磅消息:全新日语版Gemma模型正式亮相。这款小巧精悍的AI模型以仅20亿参数的规模,却能同时驾驭日语和英语,展现出与GPT-3.5相媲美的性能。
Google Gemma 日语大模型 开源大模型 2B参数模型 轻量级语言模型
2024-12-22 02:13:27 159人关注
近日,来自多家中国科研机构的研究团队重磅发布了名为Infinity-MM的超大规模多模态数据集,并基于该数据集训练出了一个性能卓越的AI模型Aquila-VL-2B。这一突破为多模态AI发展注入了新动力。
开源多模态数据集 中国团队开源数据集 最大开源数据集 多模态数据集下载 开源数据集应用场景
2024-12-15 15:43:11 184人关注
近年来,机器学习模型在视觉和语言任务方面的应用需求日益增长,但大多数模型都需要庞大的计算资源,无法在个人设备上高效运行。尤其是像笔记本电脑、消费级 GPU 和移动设备等小型设备,在处理视觉语言任务时面临巨大的挑战。
Hugging Face SmolVLM 2B参数模型 视觉语言模型 多模态AI 开源AI模型