俄罗斯语言优化GPT模型,性能接近GPT-4并超越GPT-3.5-turbo
模型在俄语数据集上表现优异,通过GPT-4o进行多语言能力训练提升了数据质量。在MT-Bench测试中,经过1个epoch的训练后,该模型在俄语评估中超越了GPT-3.5-turbo,接近Suzume。用户可通过llama.cpp或gptchain框架在本地使用该模型。
llama-3-8b-gpt-4o-ru1.0-gguf
是基于 meta-llama/Meta-Llama-3-8B-Instruct 模型的一个微调版本。这个项目的目标是在经过优化和高质量的数据集上进行微调,以提升模型在多语言环境下的能力,特别是俄语的处理能力。数据集主要来源于 tagengo-gpt4 的较小子集,但通过采用 OpenAI 最新的多语言大模型 GPT-4o,提升了数据的质量。
该模型特别针对俄语进行了优化,模型训练的 80% 示例为俄语。这使得 llama-3-8b-gpt-4o-ru1.0-gguf
在 MT-Bench 评估基准中的俄语得分上超越了 GPT-3.5-turbo,且与使用更大、更多样化数据集的 Suzume 持平。
要在本地使用此模型,最简单的方法是使用 llama.cpp 等程序加载 GGUF 版模型(ruslandev/llama-3-8b-gpt-4o-ru1.0-gguf)。如果希望直接通过 Huggingface Transformers 栈使用模型,推荐采用 gptchain 框架。
使用指导:
git clone https://github.com/RuslanPeresy/gptchain.git cd gptchain pip install -r requirements-train.txt python gptchain.py chat -m ruslandev/llama-3-8b-gpt-4o-ru1.0 \ --chatml true \ -q '[{"from": "human", "value": "Из чего состоит нейронная сеть?"}]'
在 Ru/En MT-Bench 的评估中,llama-3-8b-gpt-4o-ru1.0
在俄语和英语上的得分分别为 8.12 和 8.01,俄语得分超过 GPT-3.5-turbo,英语得分表现也较为优秀。
模型使用 axolotl 进行训练,采用的基础模型为 meta-llama/Meta-Llama-3-8B-Instruct
。在两个 NVIDIA A100 上进行了一次迭代的训练。数据集的主要来源为 ruslandev/tagengo-rus-gpt-4o
,进行了适当的准备和配置,以提升训练效率和效果。