LetsClouds-Logo
AI对话 上云服务 上云资讯 解决方案 关于我们
售前咨询 021-50583875
微信二维码

微信扫码

添加专属顾问

- 上云资讯 -

阿里云云原生 阿里云开发者 腾讯云开发者 火山引擎开发者社区 魔搭ModelScope社区 微软科技 Azure云科技 Zilliz OpenAI Anthropic Gemini LangChain Hugging Face Mistral

2025-01-21 03:23:19 212人关注

通义千问联合魔搭社区开源测试集P-MMEval:可评测模型多语言能力

阿里巴巴达摩院联合魔搭社区ModelScope近期宣布开源一项新的多语言基准测试集P-MMEval,旨在全面评估大型语言模型(LLM)的多语言能力,并进行跨语言迁移能力的比较分析。这一测试集覆盖了基础和专项能力的高效数据集,确保了所有挑选的数据集中多语言覆盖的一致性,并提供了跨多种语言的并行样本,最高支持来自8个不同语族的10种语言,包括英语、中文、阿拉伯语、西班牙语、日语、韩语、泰语、法语、葡萄牙语和越南语。

多语言模型评估 MMEval评测框架 大模型评测工具 模型评估方法 多模态模型评测

2025-01-18 08:12:27 75人关注

Anthropic推出提示词评估工具 帮助开发者更快、更高效地优化提示词质量

2024 年 7 月 10 日 —— Anthropic公司今日宣布,其AI开发平台已推出新功能,旨在简化AI应用程序的开发流程。新功能包括在Anthropic控制台中生成、测试和评估提示的能力,以及自动生成测试用例和比较输出的功能。

Anthropic prompt评估工具 AI提示词优化 大模型评估方法 Anthropic新闻

2024-12-22 00:45:42 73人关注

CMU、Meta联手放大招! VQAScore一个问题搞定文生图模型评测,准确性远超传统方法!

生成式AI发展迅猛,但如何全面评估其性能一直是个难题。各种模型层出不穷,效果也是越来越惊艳。但是,问题来了,怎么评价这些文生图模型的效果呢?

CMU Meta VQAscore 图像生成评估 图像生成技术 AI模型评估方法

推荐阅读

加载中...

上云服务

沪ICP备14033669号-10