LetsClouds-Logo
AI对话 上云服务 上云资讯 解决方案 关于我们
售前咨询 021-50583875
微信二维码

微信扫码

添加专属顾问

- 上云资讯 -

阿里云云原生 阿里云开发者 腾讯云开发者 火山引擎开发者社区 魔搭ModelScope社区 微软科技 Azure云科技 Zilliz OpenAI Anthropic Gemini LangChain Hugging Face Mistral

2025-03-27 16:27:43 123人关注

腾讯发布Hunyuan-TurboS:首款超大型混合Transformer-Mamba MoE模型震撼登场

今日,腾讯在X平台上正式宣布推出其最新AI模型Hunyuan-TurboS,这款被誉为“首款超大型Hybrid-Transformer-Mamba MoE模型”的产品迅速引发全球科技圈的热议。根据X用户披露的信息,Hunyuan-TurboS通过融合Mamba的高效长序列处理能力和Transformer的强大上下文理解能力,成功克服了传统纯Transformer模型在长文本训练和推理上的瓶颈,展现出令人瞩目的性能突破。

腾讯混元 TurboS Transformer Mamba MoE 大模型技术 AI模型架构 Transformer优化

2025-03-17 18:25:24 161人关注

Genspark推出Deep Research功能:多模型协同提供AI研究能力

Genspark近期推出了新功能"Deep Research",该功能通过整合多个模型的能力,提供AI驱动的搜索和研究服务。初步测试显示,尽管在内容深度上可能不及OpenAI的相关服务,但其质量和准确性表现令人满意。

Genspark 多模态AI AI大模型 AI技术研究 AI模型架构

2024-12-13 10:27:15 85人关注

​Liquid AI 推出 STAR 模型架构,效率超越传统 Transformer

在当前大型语言模型(LLM)开发的竞争中,各大人工智能公司面临着越来越多的挑战,因此,越来越多的目光开始转向 “Transformer” 以外的替代架构。Transformer 架构自2017年由谷歌研究人员提出以来,已成为当今生成式人工智能的基础。为了应对这一挑战,由麻省理工学院孵化的初创公司 Liquid AI 推出了一种名为 STAR(Synthesis of Tailored Architectures)的创新框架。

液态AI Star模型架构 AI模型架构 液态AI技术原理 Star模型技术解析

推荐阅读

加载中...

上云服务

沪ICP备14033669号-10