在自然语言处理领域,大语言模型(LLMs)的发展日新月异,不断刷新人们对人工智能语言理解和生成能力的认知。近日,由中科闻歌研究团队开发的YAYI 2模型引起了广泛关注。这个拥有300亿参数的多语言开源大语言模型,在多项基准测试中展现出了卓越的性能,为中文及多语言自然语言处理研究开辟了新的可能性。
YAYI 2是一个包含基础模型和对话模型的系列,总参数量达到300亿。与其他主要针对英语场景设计的开源模型不同,YAYI 2在中文语境下表现出色。这得益于其独特的预训练方法:
海量多语言语料库: YAYI 2基于一个包含2.65万亿个token的多语言语料库进行预训练,这些数据经过精心设计的预处理流程筛选而来。
从零开始预训练: 不同于许多模型采用的微调方法,YAYI 2选择从头开始训练,这使得模型能更好地适应多语言环境,特别是中文场景。
人类价值观对齐: 通过监督微调和基于人类反馈的强化学习(RLHF),YAYI 2实现了与人类价值观的对齐,提高了模型输出的可靠性和安全性。
在多项权威基准测试中,YAYI 2展现出了令人瞩目的性能:
MMLU (Massive Multitask Language Understanding): 这是一个涵盖57个学科的综合测试集,用于评估模型的多任务语言理解能力。
CMMLU (Chinese Massive Multitask Language Understanding): 专门针对中文语言理解能力设计的测试集。
在这些测试中,YAYI 2 consistently outperformed 其他同等规模的开源模型,展示了其在多语言、特别是中文处理方面的优势。
YAYI 2的成功离不开一系列技术创新:
高效的预训练数据处理流程: 研究团队开发了一套先进的数据处理管道,能够从海量原始文本中提取高质量、多样化的训练数据。
改进的多语言tokenizer: 针对中文等非英语语言的特点,YAYI 2采用了优化的分词器,提高了模型对这些语言的理解和生成能力。
创新的模型架构: YAYI 2在Transformer架构基础上进行了多项优化,以更好地处理长文本和多语言输入。
先进的训练策略: 结合了监督微调(SFT)和强化学习(RL)等多种训练方法,使模型在保持语言能力的同时,更好地对齐人类价值观。
YAYI 2的开源不仅仅是模型本身,还包括了完整的训练代码、数据处理流程和评估方法。这为整个NLP社区提供了宝贵的资源:
模型权重: 研究者可以直接使用预训练好的模型权重,进行下游任务的微调或部署。
训练代码: 完整的训练代码允许研究者复现YAYI 2的训练过程,或基于此进行进一步的改进。
数据集: 部分高质量的训练数据集也被开源,为中文NLP研究提供了宝贵的资源。
评估基准: YAYI 2团队还开源了一系列评估脚本和基准测试集,方便研究者进行公平的模型比较。