GalTransl-7B模型,专为视觉小说翻译任务设计
GalTransl-7B-v2.6模型专注于视觉小说的日译简中翻译,优 化翻译质量与稳定性,适用于主流游戏显卡(显存≥6G)。本模型在翻译质量上优于多款现有大模型,并支持GPT字典,为用户提供量化等级选择以实现硬件和性能的平衡。
GalTransl-7B-v2.6是一款由SakuraLLM社区推出的模型,该项目由sakuraumi与xd2333合作构建,专门为视觉小说的翻译任务进行优化。该模型拥有7亿参数,主要支持日文到简体中文的翻译(jp2zh-cn)。
专为视觉小说优化:GalTransl-7B被设计用于视觉小说的翻译任务,尤其对其中的行内换行、控制符和ruby注音等符号的保留能力较优。
硬件和性能平衡:为了在高质量翻译和稳定性之间取得平衡,该模型可以在显存大于或等于6G的主流游戏显卡上运行,翻译整体质量优于claude3-haiku和GPT-3.5等大型模型。
工具优化适配:此模型专为GalTransl视觉小说翻译工具进行适配和优化,支持使用GPT字典(详细写法见此处)。
24.10.04 v2.6:在2.5版本的基础上提高了稳定性。
24.09.30 v2.5:抑制了一些已知问题,并且改进了文风的细腻度。
24.08.08 v2.0:继续优化以改善翻译质量。
24.06.30 v1.5:优化了整体的文风。
24.05.30 v1.0:推出了初版。
GPT字典目前不支持英文注释,同时不支持一词多译(即"a/b"的写法)。这些问题计划在后续版本中改善。
当需要对原文进行省略语素推理时,可能会出现事实错误或幻觉。
建议每次翻译7到10句话。