OpenFedLLM

OpenFedLLM

联邦学习框架助力大型语言模型隐私数据训练

OpenFedLLM是一个开源研究代码库,专注于利用联邦学习技术训练大型语言模型。该项目整合了多种联邦学习算法和LLM训练方法,并提供全面的评估指标。通过支持指令微调和价值对齐,OpenFedLLM为研究人员提供了在分散私有数据上进行LLM训练的有力工具,助力隐私保护和模型性能优化研究。

联邦学习大语言模型OpenFedLLM开源模型训练Github开源项目

OpenFedLLM:通过联邦学习在分布式私有数据上训练大型语言模型

OpenFedLLM是一个用于通过联邦学习训练*大型语言模型(LLM)*的开源研究代码库。详情请查看我们的论文及相应的实证研究。

OpenFedLLM包含以下主要特点:

  • 7种联邦学习算法(如FedAvgFedProxSCAFFOLDFedAvgM等)。
  • 2种LLM训练算法,包括指令微调(即SFT)和价值对齐(即DPO)。
  • 30多种评估指标,涵盖通用能力医疗问答金融问答代码生成数学解题等方面。

介绍

新闻🔥

  • 2024年6月: 我们发布了首个现实的FedLLM基准测试:FedLLM-Bench。查看论文 | 代码

安装

克隆仓库、子模块并安装所需包。

git clone --recursive --shallow-submodules https://github.com/rui-ye/OpenFedLLM.git
cd OpenFedLLM
conda create -n fedllm python=3.10
conda activate fedllm
pip install -r requirements.txt
source setup.sh

训练

我们在training_scripts/下提供了训练脚本。请在此仓库的顶层目录中尝试运行它们。

联邦指令微调

训练脚本位于training_scripts/run_sft.sh

CUDA_VISIBLE_DEVICES=1 python main_sft.py \
 --model_name_or_path "meta-llama/Llama-2-7b-hf" \
 --dataset_name "vicgalle/alpaca-gpt4" \
 --dataset_sample 20000 \
 --fed_alg "fedavg" \
 --num_clients 20 \
 --sample_clients 2 \
 --max_steps 10 \
 --num_rounds 200 \
 --batch_size 16 \
 --gradient_accumulation_steps 1 \
 --seq_length 512 \
 --peft_lora_r 32 \
 --peft_lora_alpha 64 \
 --use_peft \
 --load_in_8bit \
 --output_dir "./output" \
 --template "alpaca" \

主要参数:

  • model_name_or_path:基础模型的名称或本地位置
  • template:对话模板。可在utils/template.py中定义自己的模板。
  • dataset_name:数据集名称。如果您感兴趣的数据集尚未支持,可以修改utils/process_dataset.py
  • dataset_sample:如需从原始数据集中采样特定数量的样本,则需要此参数。
  • fed_alg:联邦学习算法的名称
  • num_clients/sample_clients:总共num_clients个客户端,每轮选择sample_clients个客户端
  • max_steps:每轮每个客户端的模型更新步数。

联邦价值对齐

训练脚本位于training_scripts/run_dpo.sh

python main_dpo.py --template "vicuna_v1.1"

注意,main_sft.pymain_dpo.py在使用上的主要区别在于template参数。我们计划在未来使它们保持一致。

  • 对于SFT,模板定义在utils/template.py
  • 对于DPO,模板定义在utils/conversation.py

评估

评估代码放在evaluation/目录下。我们的大多数评估遵循现有的高影响力开源仓库。请参考各子目录中的详细README和运行脚本。

例如,evaluation/open_ended/包含了三个基准测试的开放式评估,涵盖MT-Bench、Vicuna Bench和AdvBench;详见README.md

引用

如果您发现本仓库有帮助,请引用我们的论文。

@article{ye2024openfedllm,
  title={OpenFedLLM: Training Large Language Models on Decentralized Private Data via Federated Learning},
  author={Ye, Rui and Wang, Wenhao and Chai, Jingyi and Li, Dihan and Li, Zexi and Xu, Yinda and Du, Yaxin and Wang, Yanfeng and Chen, Siheng},
  journal={arXiv preprint arXiv:2402.06954},
  year={2024}
}

编辑推荐精选

博思AIPPT

博思AIPPT

AI一键生成PPT,就用博思AIPPT!

博思AIPPT,新一代的AI生成PPT平台,支持智能生成PPT、AI美化PPT、文本&链接生成PPT、导入Word/PDF/Markdown文档生成PPT等,内置海量精美PPT模板,涵盖商务、教育、科技等不同风格,同时针对每个页面提供多种版式,一键自适应切换,完美适配各种办公场景。

AI办公办公工具AI工具博思AIPPTAI生成PPT智能排版海量精品模板AI创作热门
潮际好麦

潮际好麦

AI赋能电商视觉革命,一站式智能商拍平台

潮际好麦深耕服装行业,是国内AI试衣效果最好的软件。使用先进AIGC能力为电商卖家批量提供优质的、低成本的商拍图。合作品牌有Shein、Lazada、安踏、百丽等65个国内外头部品牌,以及国内10万+淘宝、天猫、京东等主流平台的品牌商家,为卖家节省将近85%的出图成本,提升约3倍出图效率,让品牌能够快速上架。

iTerms

iTerms

企业专属的AI法律顾问

iTerms是法大大集团旗下法律子品牌,基于最先进的大语言模型(LLM)、专业的法律知识库和强大的智能体架构,帮助企业扫清合规障碍,筑牢风控防线,成为您企业专属的AI法律顾问。

SimilarWeb流量提升

SimilarWeb流量提升

稳定高效的流量提升解决方案,助力品牌曝光

稳定高效的流量提升解决方案,助力品牌曝光

Sora2视频免费生成

Sora2视频免费生成

最新版Sora2模型免费使用,一键生成无水印视频

最新版Sora2模型免费使用,一键生成无水印视频

Transly

Transly

实时语音翻译/同声传译工具

Transly是一个多场景的AI大语言模型驱动的同声传译、专业翻译助手,它拥有超精准的音频识别翻译能力,几乎零延迟的使用体验和支持多国语言可以让你带它走遍全球,无论你是留学生、商务人士、韩剧美剧爱好者,还是出国游玩、多国会议、跨国追星等等,都可以满足你所有需要同传的场景需求,线上线下通用,扫除语言障碍,让全世界的语言交流不再有国界。

讯飞绘文

讯飞绘文

选题、配图、成文,一站式创作,让内容运营更高效

讯飞绘文,一个AI集成平台,支持写作、选题、配图、排版和发布。高效生成适用于各类媒体的定制内容,加速品牌传播,提升内容营销效果。

热门AI辅助写作AI工具讯飞绘文内容运营AI创作个性化文章多平台分发AI助手
TRAE编程

TRAE编程

AI辅助编程,代码自动修复

Trae是一种自适应的集成开发环境(IDE),通过自动化和多元协作改变开发流程。利用Trae,团队能够更快速、精确地编写和部署代码,从而提高编程效率和项目交付速度。Trae具备上下文感知和代码自动完成功能,是提升开发效率的理想工具。

AI工具TraeAI IDE协作生产力转型热门
商汤小浣熊

商汤小浣熊

最强AI数据分析助手

小浣熊家族Raccoon,您的AI智能助手,致力于通过先进的人工智能技术,为用户提供高效、便捷的智能服务。无论是日常咨询还是专业问题解答,小浣熊都能以快速、准确的响应满足您的需求,让您的生活更加智能便捷。

imini AI

imini AI

像人一样思考的AI智能体

imini 是一款超级AI智能体,能根据人类指令,自主思考、自主完成、并且交付结果的AI智能体。

下拉加载更多