LetsClouds-Logo
AI对话 上云服务 上云资讯 解决方案 关于我们
售前咨询 021-50583875
微信二维码

微信扫码

添加专属顾问

- 上云资讯 -

阿里云云原生 阿里云开发者 腾讯云开发者 火山引擎开发者社区 魔搭ModelScope社区 微软科技 Azure云科技 Zilliz OpenAI Anthropic Gemini LangChain Hugging Face Mistral

2025-07-15 14:42:22 428人关注

硅基流动上线强大编码模型 Kimi K2,助力智能应用发展

近日,硅基流动(SiliconCloud)平台正式上线了月之暗面开源的 MoE 模型 Kimi K2。这款模型总参数达到1T,激活参数为32B,在各项基准性能测试中表现不俗,能够与顶尖的商业模型相媲美。Kimi K2特别擅长编码和通用智能体(Agent)任务,为开发者提供了一个强有力的工具。

硅基流动平台 Kimi K2模型 MoE模型 1T参数大模型 通用智能体任务 编码能力优化

2025-06-30 16:29:19 62人关注

百度重磅开源文心大模型 4.5 系列,国内大模型市场再掀波澜!

近日,百度正式宣布开源其文心大模型4.5系列,共推出了十款模型,包括47B、3B 激活参数的混合专家(MoE)模型,以及0.3B 参数的稠密型模型。此次开源不仅实现了预训练权重的完整公开,还提供了推理代码,标志着百度在大模型领域的重大进展。

百度文心大模型4.5 文心大模型开源 MoE模型 大模型预训练权重 大模型推理代码 百度大模型进展

2025-05-22 14:18:20 66人关注

DeepSeek开源周第二日:首个面向MoE模型的开源EP通信库

Deepseek 公布了开源周第二天的产品,首个面向MoE模型的开源EP通信库,支持实现了混合专家模型训练推理的全栈优化。

DeepSeek开源周 MoE模型 EP通信库 开源通信库 MoE模型通信优化

2025-03-27 16:27:43 123人关注

腾讯发布Hunyuan-TurboS:首款超大型混合Transformer-Mamba MoE模型震撼登场

今日,腾讯在X平台上正式宣布推出其最新AI模型Hunyuan-TurboS,这款被誉为“首款超大型Hybrid-Transformer-Mamba MoE模型”的产品迅速引发全球科技圈的热议。根据X用户披露的信息,Hunyuan-TurboS通过融合Mamba的高效长序列处理能力和Transformer的强大上下文理解能力,成功克服了传统纯Transformer模型在长文本训练和推理上的瓶颈,展现出令人瞩目的性能突破。

腾讯混元 TurboS Transformer Mamba MoE 大模型技术 AI模型架构 Transformer优化

2025-01-04 18:42:31 90人关注

​AI2 推出全新开源模型 OLMoE:高效、强大且不再昂贵!

最近,艾伦人工智能研究所(AI2)发布了一款全新的开源模型 OLMoE,旨在满足对大型语言模型(LLM)的需求。这个模型不仅性能优异,而且成本相对低廉。

AI大模型 OLMoE模型 高效AI模型 强大AI模型 经济实惠AI解决方案 AI模型性能优化

推荐阅读

加载中...

上云服务

沪ICP备14033669号-10