pytorch-lr-finder

pytorch-lr-finder

PyTorch学习率范围测试工具

pytorch-lr-finder是一个基于PyTorch的学习率范围测试工具,实现了Leslie N. Smith论文中的方法和fastai的改进版本。通过在预训练阶段调整学习率,帮助用户确定最佳学习率。工具支持梯度累积和混合精度训练,适用于多种深度学习任务。简洁的API和可视化功能便于优化神经网络训练过程。

PyTorch学习率深度学习神经网络优化器Github开源项目

PyTorch学习率查找器

codecov

这是Leslie N. Smith在《用于训练神经网络的循环学习率》中详细介绍的学习率范围测试的PyTorch实现,以及fastai使用的改进版本。

学习率范围测试是一种提供有关最佳学习率的宝贵信息的测试。在预训练运行期间,学习率在两个边界之间线性或指数增加。较低的初始学习率允许网络开始收敛,随着学习率的增加,最终会变得过大,导致网络发散。

通常,在下降的损失曲线中间可以找到一个良好的静态学习率。在下面的图中,这个值为lr = 0.002

对于循环学习率(也在Leslie Smith的论文中详细介绍),学习率在两个边界(start_lr, end_lr)之间循环,作者建议将损失开始下降的点作为start_lr,将损失停止下降或变得不规则的点作为end_lr。在下面的图中,start_lr = 0.0002end_lr=0.2

学习率范围测试

安装

Python 3.5及以上版本:

pip install torch-lr-finder

安装支持混合精度训练的版本(详见此部分):

pip install torch-lr-finder -v --global-option="apex"

实现细节和使用方法

fastai的改进版本

以指数方式增加学习率,并计算每个学习率的训练损失。lr_finder.plot()绘制训练损失与对数学习率的关系图。

from torch_lr_finder import LRFinder model = ... criterion = nn.CrossEntropyLoss() optimizer = optim.Adam(model.parameters(), lr=1e-7, weight_decay=1e-2) lr_finder = LRFinder(model, optimizer, criterion, device="cuda") lr_finder.range_test(trainloader, end_lr=100, num_iter=100) lr_finder.plot() # 检查损失-学习率图 lr_finder.reset() # 将模型和优化器重置为初始状态

Leslie Smith的方法

线性增加学习率,并计算每个学习率的评估损失。lr_finder.plot()绘制评估损失与学习率的关系图。 这种方法通常可以产生更精确的曲线,因为评估损失对发散更敏感,但测试时间明显更长,尤其是在评估数据集较大的情况下。

from torch_lr_finder import LRFinder model = ... criterion = nn.CrossEntropyLoss() optimizer = optim.Adam(model.parameters(), lr=0.1, weight_decay=1e-2) lr_finder = LRFinder(model, optimizer, criterion, device="cuda") lr_finder.range_test(trainloader, val_loader=val_loader, end_lr=1, num_iter=100, step_mode="linear") lr_finder.plot(log_lr=False) lr_finder.reset()

注意事项

  • examples文件夹中可以找到CIFAR10和MNIST的示例。
  • 传递给LRFinder的优化器不应附加LRScheduler
  • LRFinder.range_test()会改变模型权重和优化器参数。可以通过LRFinder.reset()将两者恢复到初始状态。
  • 可以通过lr_finder.history访问学习率和损失历史。这将返回一个包含lrloss键的字典。
  • 使用step_mode="linear"时,学习率范围应在同一数量级内。
  • LRFinder.range_test()期望从传递给它的DataLoader对象返回一对input, labelinput必须准备好传递给模型,label必须准备好传递给criterion,无需进行任何进一步的数据处理/处理/转换。如果您发现需要变通方法,可以使用TrainDataLoaderIterValDataLoaderIter类在DataLoader和训练/评估循环之间执行任何数据处理/处理/转换。您可以在examples/lrfinder_cifar10_dataloader_iter中找到如何使用这些类的示例。

额外的训练支持

梯度累积

您可以在LRFinder.range_test()中设置accumulation_steps参数为适当的值来执行梯度累积:

from torch.utils.data import DataLoader from torch_lr_finder import LRFinder desired_batch_size, real_batch_size = 32, 4 accumulation_steps = desired_batch_size // real_batch_size dataset = ... # 注意`DataLoader`使用的`batch_size` trainloader = DataLoader(dataset, batch_size=real_batch_size, shuffle=True) model = ... criterion = ... optimizer = ... # (可选)使用此设置,将自动采用`amp.scale_loss()` # model, optimizer = amp.initialize(model, optimizer, opt_level='O1') lr_finder = LRFinder(model, optimizer, criterion, device="cuda") lr_finder.range_test(trainloader, end_lr=10, num_iter=100, step_mode="exp", accumulation_steps=accumulation_steps) lr_finder.plot() lr_finder.reset()

混合精度训练

现在支持apex.amptorch.amp,以下是示例:

  • 使用apex.amp

    from torch_lr_finder import LRFinder from apex import amp # 在运行`LRFinder`之前添加此行 model, optimizer = amp.initialize(model, optimizer, opt_level='O1') lr_finder = LRFinder(model, optimizer, criterion, device='cuda', amp_backend='apex') lr_finder.range_test(trainloader, end_lr=10, num_iter=100, step_mode='exp') lr_finder.plot() lr_finder.reset()
  • 使用torch.amp

    from torch_lr_finder import LRFinder amp_config = { 'device_type': 'cuda', 'dtype': torch.float16, } grad_scaler = torch.cuda.amp.GradScaler() lr_finder = LRFinder( model, optimizer, criterion, device='cuda', amp_backend='torch', amp_config=amp_config, grad_scaler=grad_scaler ) lr_finder.range_test(trainloader, end_lr=10, num_iter=100, step_mode='exp') lr_finder.plot() lr_finder.reset()

请注意,混合精度训练的好处需要具有张量核心的NVIDIA GPU(参见:NVIDIA/apex #297

此外,您可以尝试设置torch.backends.cudnn.benchmark = True来提高训练速度。(但它可能不适用于某些情况,请自行承担风险)

贡献和拉取请求

欢迎所有贡献,但首先请查看CONTRIBUTING.md

编辑推荐精选

Vora

Vora

免费创建高清无水印Sora视频

Vora是一个免费创建高清无水印Sora视频的AI工具

Refly.AI

Refly.AI

最适合小白的AI自动化工作流平台

无需编码,轻松生成可复用、可变现的AI自动化工作流

酷表ChatExcel

酷表ChatExcel

大模型驱动的Excel数据处理工具

基于大模型交互的表格处理系统,允许用户通过对话方式完成数据整理和可视化分析。系统采用机器学习算法解析用户指令,自动执行排序、公式计算和数据透视等操作,支持多种文件格式导入导出。数据处理响应速度保持在0.8秒以内,支持超过100万行数据的即时分析。

AI工具酷表ChatExcelAI智能客服AI营销产品使用教程
TRAE编程

TRAE编程

AI辅助编程,代码自动修复

Trae是一种自适应的集成开发环境(IDE),通过自动化和多元协作改变开发流程。利用Trae,团队能够更快速、精确地编写和部署代码,从而提高编程效率和项目交付速度。Trae具备上下文感知和代码自动完成功能,是提升开发效率的理想工具。

AI工具TraeAI IDE协作生产力转型热门
AIWritePaper论文写作

AIWritePaper论文写作

AI论文写作指导平台

AIWritePaper论文写作是一站式AI论文写作辅助工具,简化了选题、文献检索至论文撰写的整个过程。通过简单设定,平台可快速生成高质量论文大纲和全文,配合图表、参考文献等一应俱全,同时提供开题报告和答辩PPT等增值服务,保障数据安全,有效提升写作效率和论文质量。

AI辅助写作AI工具AI论文工具论文写作智能生成大纲数据安全AI助手热门
博思AIPPT

博思AIPPT

AI一键生成PPT,就用博思AIPPT!

博思AIPPT,新一代的AI生成PPT平台,支持智能生成PPT、AI美化PPT、文本&链接生成PPT、导入Word/PDF/Markdown文档生成PPT等,内置海量精美PPT模板,涵盖商务、教育、科技等不同风格,同时针对每个页面提供多种版式,一键自适应切换,完美适配各种办公场景。

AI办公办公工具AI工具博思AIPPTAI生成PPT智能排版海量精品模板AI创作热门
潮际好麦

潮际好麦

AI赋能电商视觉革命,一站式智能商拍平台

潮际好麦深耕服装行业,是国内AI试衣效果最好的软件。使用先进AIGC能力为电商卖家批量提供优质的、低成本的商拍图。合作品牌有Shein、Lazada、安踏、百丽等65个国内外头部品牌,以及国内10万+淘宝、天猫、京东等主流平台的品牌商家,为卖家节省将近85%的出图成本,提升约3倍出图效率,让品牌能够快速上架。

iTerms

iTerms

企业专属的AI法律顾问

iTerms是法大大集团旗下法律子品牌,基于最先进的大语言模型(LLM)、专业的法律知识库和强大的智能体架构,帮助企业扫清合规障碍,筑牢风控防线,成为您企业专属的AI法律顾问。

SimilarWeb流量��提升

SimilarWeb流量提升

稳定高效的流量提升解决方案,助力品牌曝光

稳定高效的流量提升解决方案,助力品牌曝光

Sora2视频免费生成

Sora2视频免费生成

最新版Sora2模型免费使用,一键生成无水印视频

最新版Sora2模型免费使用,一键生成无水印视频

下拉加载更多