
灵活的AI模型助力编码任务,增强开发效能与合规
Dolphin 2.7是Dolphin-2.5/2.6的升级版,通过transformers库的Mixtral修正和门层调整,提升了性能。该模型在编码任务中表现优异,同时进行去偏见处理以提高合规性。需注意模型对用户请求的高度顺从性,建议用户自行设置合规层确保安全。项目由Convai资助,适用于多种高效和合规的AI应用。
dolphin-2.7-mixtral-8x7b 是一个基于 Dolphin-2.5/2.6 的重训练版本,致力于通过改进 transformers 库中的一些问题及解冻门层来提升性能。该模型由 Convai 赞助开发,瞄准更高的代码生成和执行能力。模型采用 Mixtral-8x7b 作为基础,并通过大量的编程数据进行了强化训练。在未进行 DPO 调优的情况下,模型表现出很高的服从性,因此仍需在系统提示中给予一定的引导。
模型训练使用了多种数据集,包括 but not limited to cognitivecomputations/dolphin、jondurbin/airoboros-2.2.1、及 ise-uiuc/Magicoder-OSS-Instruct-75K 等。为了提升对代码的理解和生成能力,模型特别加入了大量代码数据训练。dolphin-2.7 版本在原有 32k 的上下文基础上进行了 16k 的微调。
模型的训练持续了大约三天,使用了 4 个 A100 GPU、qLoRA 和 Axolotl 工具框架。为了提升用户交互的友好程度,模型采用了 ChatML 格式的提示技术,确保交互的流畅性与准确性。
在 2.7 版本中,针对 mixtral 的特定问题进行了重新训练,通过解冻门层以期解决性能不佳的问题。而在先前的 2.6 版本中,修复了训练配置的问题,极大地提升了模型质量,同时合并了 samantha 基于同理心的数据,替换了 synthia 和 pure-dove 为 Capybara。
dolphin-2.7-mixtral-8x7b 模型是未审核的,因此在数据集中已进行去偏使其更具合规性。然而,用户被建议在将模型应用为服务之前,增加自定义的对齐层,以避免潜在的合规性问题。模型非常顺从,可能会对不道德的请求进行响应,因此使用者需对生成的内容负责。
在实际应用中,dolphin-model 展示了其有效解决复杂问题的能力。例如,通过 Kotlin 代码解决 LeetCode 高难问题“寻找全是 1 的最大子矩阵”,显示了模型在动态规划等复杂算法中的应用潜力。
对于 Dolphin 3.0 版本的开发正在进行中,计划包括:
这项开发离不开 Convai 的财务支持及 MistralAI 的培训支持,还要特别感谢所有数据集作者及参与模型培训框架开发的社区成员,他们的贡献使得这个项目迈向成功。
要了解更多信息或支持开发人员,您可以访问此 链接。