- 上云资讯 -



2025-03-18 10:35:32 64人关注

CMU 团队推出元强化微调:提升大语言模型推理能力的新范式

在人工智能领域,大语言模型(LLM)正在不断进化,最近,卡内基梅隆大学(CMU)与 HuggingFace 的研究者们共同提出了一种名为 “元强化微调”(Meta Reinforcement Fine-Tuning,简称 MRT)的新方法。这一方法旨在优化大语言模型在测试时的计算效率,尤其是在解决复杂推理问题时,表现尤为突出。

2025-01-17 18:11:15 93人关注

​大语言模型推理能力被高估了 在不熟悉场景中有很大的弱点

近期,麻省理工学院(MIT)的研究团队对大型语言模型(LLMs)进行了深入的研究,探讨它们在不同任务下的表现。他们发现,尽管这些模型在一些常见的任务上看起来很出色,但实际上它们的推理能力常常被高估,尤其是在面对不熟悉的情境时。

2024-12-28 20:28:32 109人关注

苹果研究揭示:大语言模型推理能力严重缺陷

最近,苹果公司进行了一项关于大语言模型(LLM)推理能力的研究,引发了人们对这些模型在数学领域表现的关注。

2024-12-28 15:40:11 74人关注

创新开源框架OpenR 有效提升大模型推理能力

一个名为OpenR的创新开源框架近日问世,旨在解决大型语言模型(LLMs)在复杂推理任务中的短板。这一由伦敦大学学院、利物浦大学、上海交通大学、香港科技大学(广州)和西湖大学研究人员联合开发的框架,通过结合测试时计算、强化学习和过程监督,为提升LLMs的推理能力开辟了新途径。