LetsClouds-Logo
AI对话 上云服务 上云资讯 解决方案 关于我们
售前咨询 021-50583875
微信二维码

微信扫码

添加专属顾问

- 上云资讯 -

阿里云云原生 阿里云开发者 腾讯云开发者 火山引擎开发者社区 魔搭ModelScope社区 微软科技 Azure云科技 Zilliz OpenAI Anthropic Gemini LangChain Hugging Face Mistral

2025-08-13 14:37:44 72人关注

腾讯混元发布52B参数多模态理解模型Large-Vision,支持任意分辨率全场景输入

腾讯混元团队近日发布了全新的多模态理解模型——混元Large-Vision,该模型采用腾讯混元擅长的MoE(专家混合)架构,激活参数达到52B规模,在性能与效率之间实现了良好平衡。

腾讯混元Large-Vision 多模态理解模型 MoE架构 混元大模型 52B参数模型 腾讯混元团队

2024-12-23 20:45:43 98人关注

Google发布日语版Gemma:20亿参数媲美GPT-3.5,开源AI再获突破

Google在东京举办的Gemma开发者日上发布重磅消息:全新日语版Gemma模型正式亮相。这款小巧精悍的AI模型以仅20亿参数的规模,却能同时驾驭日语和英语,展现出与GPT-3.5相媲美的性能。

Google Gemma 日语大模型 开源大模型 2B参数模型 轻量级语言模型

2024-12-22 02:13:27 159人关注

中国团队发布全球最大开源多模态数据集,2B参数模型性能创新高

近日,来自多家中国科研机构的研究团队重磅发布了名为Infinity-MM的超大规模多模态数据集,并基于该数据集训练出了一个性能卓越的AI模型Aquila-VL-2B。这一突破为多模态AI发展注入了新动力。

开源多模态数据集 中国团队开源数据集 最大开源数据集 多模态数据集下载 开源数据集应用场景

2024-12-15 15:43:11 184人关注

​Hugging Face推2B参数视觉语言模型SmolVLM:在普通设备就能飞速运行

近年来,机器学习模型在视觉和语言任务方面的应用需求日益增长,但大多数模型都需要庞大的计算资源,无法在个人设备上高效运行。尤其是像笔记本电脑、消费级 GPU 和移动设备等小型设备,在处理视觉语言任务时面临巨大的挑战。

Hugging Face SmolVLM 2B参数模型 视觉语言模型 多模态AI 开源AI模型

推荐阅读

加载中...

上云服务

沪ICP备14033669号-10