韩语文本生成 模型与优化的词汇扩展
Llama-2-Ko是基于Llama-2的语言模型,使用韩语语料库进行预训练,增强了文本生成功能。该模型提供从7B到70B参数的版本,尤其7B版本适配Hugging Face Transformers。Llama-2-Ko优化了变压器结构,增加了韩语词汇,有效生成高质量文本。项目由Junbum Lee领导,支持多参数与微调版本,应用广泛。
llama-2-ko-7b 是一种专门针对韩语文本开发的语言生成模型,这个项目的目标是提升模型在处理韩语文本时的表现。它是在 Llama 2 的基础上构建的,通过扩展词汇和增加韩文语料库来进一步进行预训练。这种改进使其能够更好地理解和生成韩文文本。
模型开发者: Junbum Lee(笔名 Beomi)
模型变体: llama-2-ko 提供多种参数规模的模型版本,包括7亿、13亿和70亿参数的变体,并且有预训练和微调的版本。
输入与输出: 该模型以文本作为输入,并生成文本作为输出。
模型架构: llama-2-ko 使用的是一种经过优化的自回归语言模型,它的基础架构是基于 Llama 2 的 transformer 结构。
特性 | Llama 2 |
---|---|
训练数据 | 新的韩文在线数据集 |
参数 | 7B |
内容长度 | 4k |
计划训练到的Token量 | 200B |
与原始的 Llama-2 相比,llama-2-ko 大幅扩展了词汇表的规模,从原版的32,000增加到了46,336。这个改进通过添加韩文词汇和合并步骤实现,更好地支持韩文处理。
['▁안녕', '하세요', ',', '▁오늘은', '▁날', '씨가', '▁좋네요']
,跟Llama-2相比,它不会将韩文字符断裂,更加连贯地理解整体意思。llama-2-ko-7b 在多个基准测试任务中表现出色,特别是在处理韩文文本方面。以下是一些测试结果,包括在SentiNeg、COPA和HellaSwag等基准上的表现。
llama-2-ko 使用的是Hugging Face 提供的FastTokenizer,而不是 Sentencepiece 包,这需要在初始化tokenizer时设置use_fast=True
选项。另外,由于苹果芯片不支持BF16计算,建议使用CPU或支持BF16的NVIDIA GPU。
模型的训练得到了 TPU Research Cloud 项目的支持。
更多详细的信息和具体的性能数据可以在 这里 找到。