
多语言模型的ORPO方法微调及性能评估
该项目采用ORPO方法对多语言模型进行微调,使用lightblue/mitsu数据集进行训练,取得了显著的性能提升。推荐的最佳模型版本在多种语言的评测得分均超过基础模型和其他对比模型。研究团队正在开发新的商用版本,旨在未来为商业应用提供支持。
Suzume ORPO项目是对基础模型lightblue/suzume-llama-3-8B-multilingual进行微调的成果。微调过程中使用了lightblue/mitsu数据集,并采用了ORPO方法进行训练。项目的最终目标是开发出性能卓越且适用于多语言环境的语言模型。
本项目中,通过对数据集不同部分的响应进行训练,生成了多个版本的模型:
模型在多种语言上进行了MT-Bench评分对比,评估结果显示,与基础模型相比,ORPO模型在多数语言上都表现出显著改进,尤其在某些语言上取得了所有评价模型中的最高分。例如,在中文上,lightblue/suzume-llama-3-8B-multilingual-orpo-borda-top75取得了7.77的高分,高于基础模型7.11的成绩。
模型训练过程中,使用到了lightblue/mitsu_full_borda数据集。训练过程采用了ORPO方法和多个配置参数,包括以下设置:
虽然当前模型由于使用商业数据生成训练集而限于非商业用途,但项目团队正在开发新的商业可用版本,值得期待。
若要引用本项目结果或研究,可以使用以下格式:
@article{devine2024sure, title={Are You Sure? Rank Them Again: Repeated Ranking For Better Preference Datasets}, author={Devine, Peter}, journal={arXiv preprint arXiv:2405.18952}, year={2024} }
项目由Peter Devine开发,更多信息可以通过其个人主页ptrdvn获取。