点击右上角微信好友
朋友圈
请使用浏览器分享功能进行分享
6月24日,认知智能全国重点实验室联合中国科学院文献情报中心、中国科学院人工智能产学研创新联盟、长三角人工智能产业链联盟,发布《通用大模型评测体系2.0》。相较于1.0版本,新标准在评测规模和技术覆盖面上均有所提升。
随着大模型技术趋于成熟,大模型产业竞争焦点正从技术参数转向实用性能,从通用化竞争转向垂直领域深耕。此次评测体系的升级为这一转变提供了有力的标准化支撑。
据了解,在评测规模上,2.0版本评测任务从原来的481项大幅扩展至1186项,评测模态从单一的文本、图片扩展到文本、图片、语音、视频的全模态覆盖,实现多模态评测。在语言支持方面,新版评测体系从以中文为主调整为中英文并重,更好地适应大模型国际化发展趋势。
2.0版本更关注专项领域的能力。新升级的评测体系以行业场景需求为锚点,新增教育、科研等重点专项评测领域,构建起技术与产业深度融合的价值验证桥梁。为确保评测质量,2.0版本建立了严格的数据构建准则,在确保数据高质量的准则下进行构建:通用任务测试采用来源、题型、类别等多样性采样机制,确保数据真实性和多样性;专项任务测试数据在规范性、可用性、可解释性、合规性4个方面15个子维度进行严格质量把控。在评测方法上,采用“人工+自动”结合模式,以多人主观双盲评测为主,JudgeModel(判断模型)为辅;并建立了“1+4”评价体系,即总体评分加上相关度、连贯度、完整度、有效度四个维度的细分评价。
值得一提的是,2.0版本还强化了安全评测,设计了16项风险指标,涵盖内容安全和指令安全两大类别。这一设置契合了当下行业对AI应用安全重视程度不断提升的趋势,为大模型安全部署提供重要保障。(孔繁鑫)