基于FLAN 微调的Vicuna模型问题解决能力增强版
Flacuna是一个通过在Flan-mini数据集上微调Vicuna模型而开发的AI助手。该项目旨在保持Vicuna的写作能力,同时显著增强其问题解决能力。Flacuna在多项基准测试中表现出色,尤其在少样本和零样本场景下。项目提供快速启动指南、性能评估结果和训练方法,为AI研究和开发提供了宝贵资源。
📣 我们还有许多实验等待完成(详情在此),需要我们实验室的额外计算资源。如果有任何阅读此文的业内人士愿意提供帮助,请随时通过sporia@sutd.edu.sg联系我们。
<p align="center"> <img src="https://declare-lab.net/assets/images/logos/flacuna5.png" alt="Image" width="200" height="335"> </p>Flacuna是通过在Flan-mini上微调Vicuna而开发的,Flan-mini是一个包含各种任务的综合指令集合。Vicuna已经是一个出色的写作助手,而Flacuna的目的是提高Vicuna的问题解决能力。为此,我们策划了一个专门的指令数据集,称为Flan-mini。
数据集名称 | 来源 | 数据集大小 |
---|---|---|
Flan2021 | Flan | 388K |
Public Pool of Prompts | Flan | 320K |
Natural instructions v2 | Flan | 200K |
CoT | Flan | 100K |
Code Search | HF/code_search_net | 100K |
Code Contest | HF/deepmind/code_contests | 50K |
Apps | HF/codeparrot/apps | 50K |
GPT4-Alpaca | GPT-4 | 52K |
Code-Alpaca | ChatGPT | 20K |
ShareGPT | ChatGPT | 60K |
总计 | - | 1.34M |
from flacuna import FLACUNA model = FLACUNA("declare-lab/flacuna-13b-v1.0") prompt = ( "一个好奇的用户和人工智能助手之间的对话。" "助手对用户的问题给出有帮助、详细且礼貌的回答。" "用户:你的任务是针对以下问题展示你在专业或工作场景中的写作技能。\n" "你能帮我为毕业典礼写一篇演讲稿吗?鼓舞并激励毕业生追求梦想,为世界带来积极影响。\n" "输出:助手:" ) decoded = model.generate(prompt) print (decoded)
输出如下:
一个好奇的用户和人工智能助手之间的对话。助手对用户的问题给出有帮助、详细且礼貌的回答。用户:你的任务是针对以下问题展示你在专业或工作场景中的写作技能。
你能帮我为毕业典礼写一篇演讲稿吗?鼓舞并激励毕业生追求梦想,为世界带来积极影响。
输出:助手:亲爱的毕业生们,
今天能站在这里,庆祝你们的成就,认可你们在大学里所展现的辛勤付出和dedication,我感到无比荣幸。我为你们每一个人感到骄傲,为你们迄今为止所取得的一切成就,也为每个人内心蕴藏的潜力而自豪。
当你们离开这个舞台时,我想提醒你们,你们的旅程才刚刚开始。真实的世界在等待着你们,随之而来的是无数的机遇和挑战。但我相信你们每一个人,我知道你们完全有能力面对前方的一切。
你们是这个世界的未来,我毫不怀疑你们会在你们选择追求的任何 领域对这个世界产生积极影响。无论是在科学、技术、教育、医疗保健还是任何其他领域,你们的贡献都将是宝贵而有意义的,并将改变他人的生活。
因此,在你们前进的道路上,我敦促你们要忠于自己的热情,追求自己的梦想,永远不要放弃你们所信仰的东西。请记住,真正重要的不是我们遇到的障碍,而是我们如何克服它们。
你们有改变世界的力量,我毫不怀疑你们会做到。所以,勇敢地走出去,充分利用每一个来之不易的机会。让自己与众不同,在这个世界上留下你们的印记。
再次祝贺你们,祝你们在未来的道路上一切顺利。
谢谢。
通过这个微调过程,Flacuna在多个基准数据集上的问题解决能力显著提升,无论是在少样本还是零样本设置下都有明显改进。
模型 | 规模 | MMLU (5-shot) | BBH (3-shot) | DROP (3-shot) | CRASS (3-shot) | HumanEval (0-shot) | 平均 |
---|---|---|---|---|---|---|---|
StableVicuna | 13B | 49.2 (+3.0) | 37.5 (+0.4) | 34.3 (-1.0) | 67.5 (+8.7) | 15.9 (+2.5) | 40.9 (+2.7) |
Vicuna | 13B | 50.6 (+4.5) | 37.6 (+0.5) | 32.6 (-3.0) | 60.9 (+2.1) | 11.6 (-1.8) | 38.7 (+0.6) |
Flacuna | 13B | 51.1 (+5.0) | 39.3 (+2.2) | 43.6 (+8.0) | 74.1 (+15.3) | 11.0 (-2.4) | 43.8 (+5.6) |
模型 | 规模 | MMLU(零样本) | BBH(零样本) | CRASS(零样本) | |||
--- | --- | --- | --- | --- | |||
StableVicuna | 13B | 47.5 | 18.5 | 64.2 | |||
Vicuna | 13B | 48.3 | 28.3 | 65.7 | |||
Flacuna | 13B | 49.4 | 32.5 | 67.9 |
在训练过程中,Flacuna是LLaMA的一个13B检查点,采用了1280的最大输入序列长度。我们使用LoRA进行参数高效的微调。
虽然Flacuna主要擅长解决问题的任务,但我们努力保持了Vicuna令人印象深刻的写作和聊天能力。为实现这一目标,我们将GPT-4生成的对话数据集(如GPT-4-Alpaca和ShareGPT)纳入了Flan-mini集合中。
要将Flacuna用作聊天机器人或写作助手,我们建议您使用以下模板:
这是一个好奇的用户与人工智能助手之间的对话。助手对用户的问题提供有帮助、详细且礼貌的回答。用户:{任务定义}。\n\n
{问题}\n
输出:助手:
请注意,我们仍然建议您优先选择Vicuna作为聊天机器人或写作助手,而不是Flacuna。Flacuna的主要优势在于解决问题的任务,使其更适合此类应用。
下表展示了Flacuna在IMPACT数据集上的写作表现,该数据集是InstructEval评估套件的一部分。生成的回答已由ChatGPT评估,其相关性和连贯性按1到5的尺度进行评分。
模型 | 规模 | 信息相关性 | 信息连贯性 | 专业相关性 | 专业连贯性 | 论证相关性 | 论证连贯性 | 创意相关性 | 创意连贯性 | 平均相关性 | 平均连贯性 |
---|---|---|---|---|---|---|---|---|---|---|---|
ChatGPT | - | 3.34 | 3.98 | 3.88 | 3.96 | 3.96 | 3.82 | 3.92 | 3.94 | 3.78 | 3.93 |
Flan-Alpaca | 11B | 3.56 | 3.46 | 3.54 | 3.70 | 3.22 | 3.28 | 3.70 | 3.40 | 3.51 | 3.46 |
Flan-T5 | 11B | 2.64 | 3.24 | 2.62 | 3.22 | 2.54 | 3.40 | 2.50 | 2.72 | 2.58 | 3.15 |
Dolly-V2 | 12B | 3.54 | 3.64 | 2.96 | 3.74 | 3.66 | 3.20 | 3.02 | 3.18 | 3.30 | 3.44 |
StableVicuna | 13B | 3.54 | 3.64 | 2.96 | 3.74 | 3.30 | 3.20 | 3.02 | 3.18 | 3.21 | 3.44 |
Vicuna | 13B | 3.60 | 3.96 | 3.74 | 3.82 | 3.82 | 3.56 | 3.82 | 3.92 | 3.75 | 3.82 |
Flacuna | 13B | 3.02 | 3.42 | 3.48 | 3.52 | 3.38 | 3.02 | 3.92 | 3.80 | 3.45 | 3.44 |
进入data
目录并下载Flan-Mini数据集:
cd data wget https://huggingface.co/datasets/declare-lab/flan-mini/resolve/main/flan_mini.json.zip unzip flan_mini.json.zip cd ..
然后,您可以使用train.sh
脚本在Flan-Mini数据集上对Vicuna进行微调:
bash train.sh
@misc{ghosal2023flacuna, title={Flacuna: Unleashing the Problem Solving Power of Vicuna using FLAN Fine-Tuning}, author={Deepanway Ghosal and Yew Ken Chia and Navonil Majumder and Soujanya Poria}, year={2023}, eprint={2307.02053}, archivePrefix={arXiv}, primaryClass={cs.CL} }
一键生成PPT和Word,让学习生活更轻松
讯飞智文是一个利用 AI 技术的项目,能够帮助用户生成 PPT 以及各类文档。无论是商业领域的市场分析报告、年度目标制定,还是学生群体的职业生涯规划、实习避坑指南,亦或是活动策划、旅游攻略等内容,它都能提供支持,帮助用户精准表达,轻松呈现各种信息。
深度推理能力全新升级,全面对标OpenAI o1
科大讯飞的星火大模型,支持语言理解、知识问答和文本创作等多功能,适用于多种文件和业务场景,提升办公和日常生活的效率。讯飞星火是一个提供丰富智能服务的平台,涵盖科技资讯、图像创作、写作辅助、编程解答、科研文献解读等功能,能为不同需求的用户提供便捷高效的帮助,助力用户轻松获取信息、解决问题,满足多样化使用场景。
一种基于大语言模型的高效单流解耦语音令牌文本到语音合成模型
Spark-TTS 是一个基于 PyTorch 的开源文本到语音合成项目,由多个知名机构联合参与。该项目提供了高效的 LLM(大语言模型)驱动的语音合成方案,支持语音克隆和语音创建功能,可通过命令行界面(CLI)和 Web UI 两种方式使用。用户可以根据需求调整语音的性别、音高、速度等参数,生成高质量的语音。该项目适用于多种场景,如有声读物制作、智能语音助手开发等。
字节跳动发布的AI编程神器IDE
Trae是一种自适应的集成开发环境(IDE),通过自动化和多元协作改变开发流程。利用Trae,团队能够更快速、精确地编写和部署代码,从而提高编程效率和项目交付速度。Trae具备上下文感知和代码自动完成功能,是提升开发效率的理想工具。
AI助力,做PPT更简单!
咔片是一款轻量化在线演示设计工具,借助 AI 技术,实现从内容生成到智能设计的一站式 PPT 制作服务。支持多种文档格式导入生成 PPT,提供海量模板、智能美化、素材替换等功能,适用于销售、教师、学生等各类人群,能高效制作出高品质 PPT,满足不同场景演示需求。
选题、配图、成文,一站式创作,让内容运营更高效
讯飞绘文,一个AI集成平台,支持写作、选题、配图、排版和发布。高效生成适用于各类媒体的定制内容,加速品牌传播,提升内容营销效果。
专业的AI公文写作平台,公文写作神器
AI 材料星,专业的 AI 公文写作辅助平台,为体制内工作人员提供高效的公文写作解决方案。拥有海量公文文库、9 大核心 AI 功能,支持 30 + 文稿类型生成,助力快速完成领导讲话、工作总结、述职报告等材料,提升办公效率,是体制打工人的得力写作神器。
OpenAI Agents SDK,助力开发者便捷使用 OpenAI 相关功能。
openai-agents-python 是 OpenAI 推出的一款强大 Python SDK,它为开发者提供了与 OpenAI 模型交互的高效工具,支持工具调用、结果处理、追踪等功能,涵盖多种应用场景,如研究助手、财务研究等,能显著提升开发效率,让开发者更轻松地利用 OpenAI 的技术优势。
高分辨率纹理 3D 资产生成
Hunyuan3D-2 是腾讯开发的用于 3D 资产生成的强大工具,支持从文本描述、单张图片或多视角图片生成 3D 模型,具备快速形状生成能力,可生成带纹理的高质量 3D 模型,适用于多个领域,为 3D 创作提供了高效解决方案。
一个具备存储、管理和客户端操作等多种功能的分布式文件系统相关项目。
3FS 是一个功能强大的分布式文件系统项目,涵盖了存储引擎、元数据管理、客户端工具等多个模块。它支持多种文件操作,如创建文件和目录、设置布局等,同时具备高效的事件循环、节点选择和协程池管理等特性。适用于需要大规模数据存储和管理的场 景,能够提高系统的性能和可靠性,是分布式存储领域的优质解决方案。
最新AI工具、AI资讯
独家AI资源、AI项目落地
微信扫一扫关注公众号