大规模多任务语言理解基准
MMLU全称MassiveMultitaskLanguageUnderstanding,是一种针对大模型的语言理解能力的测评,是目前最著名的大模型语义理解测评之一,由UCBerkeley大学的研究人员在2020年9月推出。该测试涵盖57项任务,包括初等数学、美国历史、计算机科学、法律等。任务涵盖的知识很广泛,语言是英文,用以评测大模型基本的知识覆盖范围和理解能力。
Hugging Face推出的开源大模型排行榜单
斯坦福大学推出的大模型评测体系
上海人工智能实验室推出的大模型开放评测体系
以众包方式进行匿名随机对战的LLM基准平台
由复旦大学NLP实验室推出的大模型评测基准
中文通用大模型综合性测评基准
您的邮箱地址不会被公开。 必填项已用 * 标注
评论 *
显示名称 *
邮箱 *
网站
在此浏览器中保存我的显示名称、邮箱地址和网站地址,以便下次评论时使用。
Hugging Face推出的开源大模型排行榜单