LeNet-5 在 MNIST 数据集上的 PyTorch 实现

RayRay
LeNet-5MNISTPyTorch深度学习图像识别Github开源项目

LeNet-5 模型简介

LeNet-5 是由 Yann LeCun 等人在1998年提出的一种卷积神经网络结构,是深度学习领域的奠基性工作之一。尽管结构简单,但 LeNet-5 在手写数字识别等任务上取得了很好的效果,为后来更复杂的卷积神经网络奠定了基础。

LeNet-5 的网络结构如下:

LeNet-5 架构

主要包含:

  • 2个卷积层
  • 2个池化层
  • 3个全连接层

这种结构能够有效地提取图像特征,并最终完成分类任务。

MNIST 数据集介绍

MNIST 是一个手写数字图像数据集,包含 60,000 张训练图像和 10,000 张测试图像。每张图像是 28x28 像素的灰度图,对应 0-9 的 10 个数字类别。

MNIST 数据集的一些样本如下:

MNIST 样本

由于数据简单且规模适中,MNIST 成为了机器学习和计算机视觉领域的经典入门数据集。

环境准备

首先我们需要安装必要的 Python 库:

pip install torch torchvision matplotlib

然后导入相关模块:

import torch import torch.nn as nn import torch.optim as optim from torchvision import datasets, transforms import matplotlib.pyplot as plt

数据加载与预处理

使用 torchvision 可以方便地下载和加载 MNIST 数据集:

transform = transforms.Compose([ transforms.ToTensor(), transforms.Normalize((0.1307,), (0.3081,)) ]) train_dataset = datasets.MNIST(root='./data', train=True, download=True, transform=transform) test_dataset = datasets.MNIST(root='./data', train=False, download=True, transform=transform) train_loader = torch.utils.data.DataLoader(train_dataset, batch_size=64, shuffle=True) test_loader = torch.utils.data.DataLoader(test_dataset, batch_size=1000, shuffle=False)

这里我们对数据进行了归一化处理,使用的均值和标准差是 MNIST 数据集的统计值。

构建 LeNet-5 模型

接下来我们使用 PyTorch 定义 LeNet-5 网络结构:

class LeNet5(nn.Module): def __init__(self): super(LeNet5, self).__init__() self.conv1 = nn.Conv2d(1, 6, 5) self.conv2 = nn.Conv2d(6, 16, 5) self.fc1 = nn.Linear(16*4*4, 120) self.fc2 = nn.Linear(120, 84) self.fc3 = nn.Linear(84, 10) def forward(self, x): x = torch.relu(self.conv1(x)) x = torch.max_pool2d(x, 2) x = torch.relu(self.conv2(x)) x = torch.max_pool2d(x, 2) x = x.view(-1, 16*4*4) x = torch.relu(self.fc1(x)) x = torch.relu(self.fc2(x)) x = self.fc3(x) return x model = LeNet5()

定义损失函数和优化器

我们使用交叉熵损失函数和 Adam 优化器:

criterion = nn.CrossEntropyLoss() optimizer = optim.Adam(model.parameters(), lr=0.001)

模型训练

现在我们可以开始训练模型了:

num_epochs = 10 device = torch.device("cuda" if torch.cuda.is_available() else "cpu") model.to(device) for epoch in range(num_epochs): model.train() for batch_idx, (data, target) in enumerate(train_loader): data, target = data.to(device), target.to(device) optimizer.zero_grad() output = model(data) loss = criterion(output, target) loss.backward() optimizer.step() print(f'Epoch {epoch+1}/{num_epochs}, Loss: {loss.item():.4f}')

模型评估

训练完成后,我们在测试集上评估模型性能:

model.eval() correct = 0 total = 0 with torch.no_grad(): for data, target in test_loader: data, target = data.to(device), target.to(device) outputs = model(data) _, predicted = torch.max(outputs.data, 1) total += target.size(0) correct += (predicted == target).sum().item() print(f'Accuracy on test set: {100 * correct / total:.2f}%')

通过以上步骤,我们成功实现了 LeNet-5 模型,并在 MNIST 数据集上进行了训练和评估。一般情况下,该模型可以达到约 99% 的测试集准确率。

结果可视化

为了更直观地了解模型的表现,我们可以可视化一些预测结果:

def imshow(img): npimg = img.numpy() plt.imshow(np.transpose(npimg, (1, 2, 0))) plt.axis('off') dataiter = iter(test_loader) images, labels = next(dataiter) outputs = model(images.to(device)) _, predicted = torch.max(outputs, 1) fig = plt.figure(figsize=(25,4)) for idx in range(20): ax = fig.add_subplot(2, 10, idx+1, xticks=[], yticks=[]) imshow(images[idx]) ax.set_title(f"{predicted[idx]}", color=("green" if predicted[idx]==labels[idx] else "red")) plt.show()

预测结果可视化

通过这种可视化,我们可以直观地看到模型在不同样本上的预测结果。

总结

本文详细介绍了如何使用 PyTorch 在 MNIST 数据集上实现 LeNet-5 模型。从数据准备、模型构建到训练评估,我们完整地展示了深度学习项目的基本流程。尽管 LeNet-5 结构简单,但它在 MNIST 这样的简单任务上仍能取得不错的效果,是理解卷积神经网络原理的绝佳起点。

对于有兴趣深入学习的读者,可以尝试以下扩展:

  1. 使用数据增强技术提高模型泛化能力
  2. 尝试不同的优化器和学习率调度策略
  3. 可视化卷积层提取的特征图
  4. 在其他数据集上测试 LeNet-5 的性能

希望这篇文章能够帮助大家更好地理解 LeNet-5 模型和 PyTorch 的使用。深度学习是一个不断发展的领域,保持学习和实践的热情将使你在这个领域走得更远。

🔗 GitHub 项目链接

编辑推荐精选

潮际好麦

潮际好麦

AI赋能电商视觉革命,一站式智能商拍平台

潮际好麦深耕服装行业,是国内AI试衣效果最好的软件。使用先进AIGC能力为电商卖家批量提供优质的、低成本的商拍图。合作品牌有Shein、Lazada、安踏、百丽等65个国内外头部品牌,以及国内10万+淘宝、天猫、京东等主流平台的品牌商家,为卖家节省将近85%的出图成本,提升约3倍出图效率,让品牌能够快速上架。

iTerms

iTerms

企业专属的AI法律顾问

iTerms是法大大集团旗下法律子品牌,基于最先进的大语言模型(LLM)、专业的法律知识库和强大的智能体架构,帮助企业扫清合规障碍,筑牢风控防线,成为您企业专属的AI法律顾问。

SimilarWeb流量提升

SimilarWeb流量提升

稳定高效的流量提升解决方案,助力品牌曝光

稳定高效的流量提升解决方案,助力品牌曝光

Sora2视频免费生成

Sora2视频免费生成

最新版Sora2模型免费使用,一键生成无水印视频

最新版Sora2模型免费使用,一键生成无水印视频

Transly

Transly

实时语音翻译/同声传译工具

Transly是一个多场景的AI大语言模型驱动的同声传译、专业翻译助手,它拥有超精准的音频识别翻译能力,几乎零延迟的使用体验和支持多国语言可以让你带它走遍全球,无论你是留学生、商务人士、韩剧美剧爱好者,还是出国游玩、多国会议、跨国追星等等,都可以满足你所有需要同传的场景需求,线上线下通用,扫除语言障碍,让全世界的语言交流不再有国界。

讯飞绘文

讯飞绘文

选题、配图、成文,一站式创作,让内容运营更高效

讯飞绘文,一个AI集成平台,支持写作、选题、配图、排版和发布。高效生成适用于各类媒体的定制内容,加速品牌传播,提升内容营销效果。

热门AI辅助写作AI工具讯飞绘文内容运营AI创作个性化文章多平台分发AI助手
TRAE编程

TRAE编程

AI辅助编程,代码自动修复

Trae是一种自适应的集成开发环境(IDE),通过自动化和多元协作改变开发流程。利用Trae,团队能够更快速、精确地编写和部署代码,从而提高编程效率和项目交付速度。Trae具备上下文感知和代码自动完成功能,是提升开发效率的理想工具。

AI工具TraeAI IDE协作生产力转型热门
商汤小浣熊

商汤小浣熊

最强AI数据分析助手

小浣熊家族Raccoon,您的AI智能助手,致力于通过先进的人工智能技术,为用户提供高效、便捷的智能服务。无论是日常咨询还是专业问题解答,小浣熊都能以快速、准确的响应满足您的需求,让您的生活更加智能便捷。

imini AI

imini AI

像人一样思考的AI智能体

imini 是一款超级AI智能体,能根据人类指令,自主思考、自主完成、并且交付结果的AI智能体。

Keevx

Keevx

AI数字人视频创作平台

Keevx 一款开箱即用的AI数字人视频创作平台,广泛适用于电商广告、企业培训与社媒宣传,让全球企业与个人创作者无需拍摄剪辑,就能快速生成多语言、高质量的专业视频。

下拉加载更多