LetsClouds-Logo
AI对话 上云服务 上云资讯 解决方案 关于我们
售前咨询 021-50583875
微信二维码

微信扫码

添加专属顾问

- 上云资讯 -

阿里云云原生 阿里云开发者 腾讯云开发者 火山引擎开发者社区 魔搭ModelScope社区 微软科技 Azure云科技 Zilliz OpenAI Anthropic Gemini LangChain Hugging Face Mistral

2025-03-18 10:35:32 114人关注

CMU 团队推出元强化微调:提升大语言模型推理能力的新范式

在人工智能领域,大语言模型(LLM)正在不断进化,最近,卡内基梅隆大学(CMU)与 HuggingFace 的研究者们共同提出了一种名为 “元强化微调”(Meta Reinforcement Fine-Tuning,简称 MRT)的新方法。这一方法旨在优化大语言模型在测试时的计算效率,尤其是在解决复杂推理问题时,表现尤为突出。

CMU团队 Meta强化学习 模型微调技术 强化学习优化 AI模型训练方法

2025-01-14 16:34:22 294人关注

Llama 4启动训练 Meta科学家揭秘Llama 3.1训练背后的故事

Meta的科学家Thomas Scialom在播客节目Latent Space中,为我们揭开了Llama3.1的研发秘籍,并提前透露了Llama4的神秘面纱。

Llama 4 LLaMA 3 大模型训练技术 AI模型训练方法 LLaMA系列模型发展

2024-12-20 17:22:41 67人关注

OpenAI转向新训练技术:扩大模型规模已非突破关键

随着生成式AI的迅猛发展,业界对"更大即更好"的传统认知正在发生转变。多位顶尖AI科学家近期表示,单纯通过增加数据量和算力来提升AI性能的方法已接近瓶颈,新的技术突破方向正在显现。

OpenAI AI训练技术 AI大模型 OpenAI新技术 AI模型训练方法

推荐阅读

加载中...

上云服务

沪ICP备14033669号-10