- 上云资讯 -
2025-11-08 13:25:36 168人关注
美团LongCat发布创新基准测试UNO-Bench,全面提升多模态大语言模型评估能力
近日,美团 LongCat 团队推出了一个名为 UNO-Bench 的全新基准测试,旨在系统性地评估这些模型在不同模态下的理解能力。这个基准测试涵盖了44种任务类型和5种模态组合,力求全面展现模型的单模态与全模态的性能。
2025-01-21 03:23:19 378人关注
通义千问联合魔搭社区开源测试集P-MMEval:可评测模型多语言能力
阿里巴巴达摩院联合魔搭社区ModelScope近期宣布开源一项新的多语言基准测试集P-MMEval,旨在全面评估大型语言模型(LLM)的多语言能力,并进行跨语言迁移能力的比较分析。这一测试集覆盖了基础和专项能力的高效数据集,确保了所有挑选的数据集中多语言覆盖的一致性,并提供了跨多种语言的并行样本,最高支持来自8个不同语族的10种语言,包括英语、中文、阿拉伯语、西班牙语、日语、韩语、泰语、法语、葡萄牙语和越南语。
2024-12-31 04:15:24 244人关注
Salesforce AI 推全新大语言模型评估家族SFR-Judge 基于Llama3构建
在自然语言处理领域,大型语言模型(LLMs)的发展迅速,已经在多个领域取得了显著的进展。不过,随着模型的复杂性增加,如何准确评估它们的输出就变得至关重要。传统上,我们依赖人类来进行评估,但这种方式既耗时又难以规模化,无法跟上模型快速发展的步伐。
