LetsClouds-Logo
AI对话 上云服务 上云资讯 解决方案 关于我们
售前咨询 021-50583875
微信二维码

微信扫码

添加专属顾问

- 上云资讯 -

阿里云云原生 阿里云开发者 腾讯云开发者 火山引擎开发者社区 魔搭ModelScope社区 微软科技 Azure云科技 Zilliz OpenAI Anthropic Gemini LangChain Hugging Face Mistral

2025-08-02 17:13:19 3人关注

阿里开源通义万相Wan2.2:全球首个MoE架构视频生成模型震撼发布

阿里巴巴今晚正式开源视频生成模型"通义万相Wan2.2",此次发布包含三款核心模型:文生视频(Wan2.2-T2V-A14B)、图生视频(Wan2.2-I2V-A14B)和统一视频生成(Wan2.2-IT2V-5B)模型,标志着视频生成技术迎来重大突破。

通义万相Wan2.2 视频生成模型 文生视频模型 图生视频模型 统一视频生成模型 阿里巴巴开源AI

2025-07-15 14:42:22 430人关注

硅基流动上线强大编码模型 Kimi K2,助力智能应用发展

近日,硅基流动(SiliconCloud)平台正式上线了月之暗面开源的 MoE 模型 Kimi K2。这款模型总参数达到1T,激活参数为32B,在各项基准性能测试中表现不俗,能够与顶尖的商业模型相媲美。Kimi K2特别擅长编码和通用智能体(Agent)任务,为开发者提供了一个强有力的工具。

硅基流动平台 Kimi K2模型 MoE模型 1T参数大模型 通用智能体任务 编码能力优化

2025-07-12 16:12:20 486人关注

月之暗面Kimi K2 模型发布并开源 擅长代码与 Agentic 任务

月之暗面公司正式发布了其最新力作——Kimi K2模型,并同步宣布开源。这款基于MoE架构的基础模型,凭借其强大的代码能力、卓越的通用Agent任务处理能力,一经发布便在AI领域引起了广泛关注。

Kimi K2模型 MoE架构基础模型 开源AI模型 代码能力AI模型 通用Agent任务处理 月之暗面公司AI技术

2025-06-30 16:29:19 62人关注

百度重磅开源文心大模型 4.5 系列,国内大模型市场再掀波澜!

近日,百度正式宣布开源其文心大模型4.5系列,共推出了十款模型,包括47B、3B 激活参数的混合专家(MoE)模型,以及0.3B 参数的稠密型模型。此次开源不仅实现了预训练权重的完整公开,还提供了推理代码,标志着百度在大模型领域的重大进展。

百度文心大模型4.5 文心大模型开源 MoE模型 大模型预训练权重 大模型推理代码 百度大模型进展

2025-06-30 11:22:37 47人关注

华为开源盘古7B稠密和72B混合专家模型

6月30日,华为于正式宣布开源盘古70亿参数的稠密模型、盘古Pro MoE720亿参数的混合专家模型,以及基于升腾的模型推理技术。

华为盘古模型开源 盘古70亿参数稠密模型 盘古Pro MoE720亿参数模型 升腾模型推理技术 华为大模型开源

2025-06-28 08:22:28 122人关注

腾讯开源轻量级混元-A13B模型 1张中低端GPU卡即可部署

腾讯正式发布并开源混元大模型家族的新成员——混元-A13B模型。该模型采用基于专家混合(MoE)架构,总参数规模达800亿,激活参数为130亿,在保持顶尖开源模型效果的同时,大幅降低了推理延迟与计算开销,为个人开发者和中小企业提供了更具性价比的AI解决方案。

腾讯混元大模型 混元-A13B模型 MoE架构 开源AI模型 AI推理优化 中小企业AI解决方案

2025-06-22 08:31:17 116人关注

蚂蚁开源轻量级MoE推理模型Ring-lite

近日,蚂蚁技术团队宣布正式开源其轻量级推理模型Ring-lite。该模型在多项推理榜单上取得了显著成绩,实现了轻量级推理模型的SOTA效果,再次验证了MoE架构的推理潜力。

蚂蚁技术团队开源 Ring-lite推理模型 轻量级推理模型SOTA MoE架构推理潜力 推理模型榜单成绩

2025-05-22 14:18:20 66人关注

DeepSeek开源周第二日:首个面向MoE模型的开源EP通信库

Deepseek 公布了开源周第二天的产品,首个面向MoE模型的开源EP通信库,支持实现了混合专家模型训练推理的全栈优化。

DeepSeek开源周 MoE模型 EP通信库 开源通信库 MoE模型通信优化

2025-03-27 16:27:43 123人关注

腾讯发布Hunyuan-TurboS:首款超大型混合Transformer-Mamba MoE模型震撼登场

今日,腾讯在X平台上正式宣布推出其最新AI模型Hunyuan-TurboS,这款被誉为“首款超大型Hybrid-Transformer-Mamba MoE模型”的产品迅速引发全球科技圈的热议。根据X用户披露的信息,Hunyuan-TurboS通过融合Mamba的高效长序列处理能力和Transformer的强大上下文理解能力,成功克服了传统纯Transformer模型在长文本训练和推理上的瓶颈,展现出令人瞩目的性能突破。

腾讯混元 TurboS Transformer Mamba MoE 大模型技术 AI模型架构 Transformer优化

2025-01-18 02:28:26 78人关注

谷歌提出百万专家Mixture 释放进一步扩展 Transformer 的潜力

Google DeepMind提出的百万专家Mixture模型,一个在Transformer架构上迈出了革命性步伐的研究。

Google Mixture Experts Transformer 模型 MoE 技术 大模型架构 AI 模型优化 Google AI 技术突破

2025-01-04 18:42:31 90人关注

​AI2 推出全新开源模型 OLMoE:高效、强大且不再昂贵!

最近,艾伦人工智能研究所(AI2)发布了一款全新的开源模型 OLMoE,旨在满足对大型语言模型(LLM)的需求。这个模型不仅性能优异,而且成本相对低廉。

AI大模型 OLMoE模型 高效AI模型 强大AI模型 经济实惠AI解决方案 AI模型性能优化

2025-01-03 21:13:40 116人关注

元象发布MoE开源大模型XVERSE-MoE-A36B 激活参数达36B

深圳元象信息科技有限公司近日宣布,公司已成功发布中国最大的Mixture of Experts(MoE)开源大模型——XVERSE-MoE-A36B。这款模型的发布标志着中国在AI领域的一大进步,将国产开源技术提升至国际领先水平。

Xverse-MoE 36B参数大模型 MoE架构优势 大模型技术原理 大模型应用场景

2024-12-25 13:19:16 86人关注

OPPO率先实现终端MoE落地 AI处理效率提升40%

OPPO今日宣布在全球首次成功将专家混合模型(MoE)架构应用于移动设备。这一突破性进展显著提升了AI处理效率,为终端AI技术的进一步发展开辟了新途径,同时也为AI与移动硬件的深度融合奠定了基础。

OPPO MoE AI效率提升 大模型技术 MoE架构优化 AI性能优化 OPPO AI创新

推荐阅读

加载中...

上云服务

沪ICP备14033669号-10