news 2026/4/16 16:02:35

Day37 MLP神经网络的训练

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
Day37 MLP神经网络的训练

先搞懂基础准备:PyTorch + CUDA(让训练更快)

MLP 训练通常用PyTorch 框架,如果电脑有 N 卡(NVIDIA 显卡),可以装CUDA让显卡帮着加速计算。

  • 安装:先装对应版本的 CUDA,再装 PyTorch(官网会给匹配的安装命令)。
  • 检查 CUDA:装完后在 Python 里输入import torch; print(torch.cuda.is_available()),输出True就是能用显卡了。
  • 查显卡信息:Windows 的 CMD 里输入nvidia-smi,就能看到显卡型号、CUDA 版本这些。

MLP 训练的核心流程(对应笔记里的 “简单神经网络流程”)

假设我们要训练一个 MLP 做 “分类 / 回归” 任务,步骤是这样的:

1. 数据预处理

得把数据变成模型能认的格式:

  • 归一化:比如把数据缩到 0~1 之间(避免数值太大干扰训练);
  • 转张量:用 PyTorch 的torch.tensor()把数据(比如 Excel 里的表格)转成 “张量”(相当于 PyTorch 里的数组)。
2. 定义 MLP 模型

MLP 是 “多层感知机”,就是一堆 “全连接层” 堆起来。在 PyTorch 里这么写:

  • 继承nn.Module:所有模型都得是这个类的 “子类”;
  • 定义层:比如self.layer1 = nn.Linear(输入特征数, 隐藏层神经元数)(全连接层);
  • 前向传播:定义数据怎么从输入层→隐藏层→输出层,比如x = torch.relu(self.layer1(x))(relu 是激活函数,让模型能学非线性关系)。
3. 选 “损失函数” 和 “优化器”
  • 损失函数:衡量 “模型预测值” 和 “真实值” 的差距(比如分类用CrossEntropyLoss,回归用MSELoss);
  • 优化器:负责 “调整模型参数” 来减小损失(常用Adam,直接调参数就行)。
4. 训练流程(核心!)

就是 “喂数据→算损失→调参数” 循环:

  1. 把数据喂给模型,得到预测结果;
  2. 用损失函数算 “预测值” 和 “真实值” 的损失;
  3. 优化器 “反向传播”:从损失往回算每个参数的 “梯度”(相当于 “参数怎么改能减小损失”);
  4. 优化器更新参数:根据梯度调整模型里的权重、偏置这些参数;
  5. 重复上面步骤,直到损失足够小。
5. 可视化 loss 过程

训练时记录每一轮的损失,用 Matplotlib 画个折线图,能直观看到 “损失是不是越来越小”(如果损失不下降,说明训练有问题)。

举个极简的例子(比如用 MLP 做数字识别):

import torch import torch.nn as nn import torch.optim as optim # 1. 假数据(比如10个样本,每个样本有5个特征,标签是0/1) data = torch.randn(10, 5) # 10个样本,每个5个特征 labels = torch.randint(0, 2, (10,)) # 10个标签(0或1) # 2. 定义MLP模型 class MLP(nn.Module): def __init__(self): super().__init__() self.layer1 = nn.Linear(5, 10) # 输入5特征→隐藏层10神经元 self.layer2 = nn.Linear(10, 2) # 隐藏层10→输出2类(对应0/1) def forward(self, x): x = torch.relu(self.layer1(x)) # 隐藏层加激活 return self.layer2(x) model = MLP() # 3. 损失函数+优化器 loss_fn = nn.CrossEntropyLoss() # 分类任务用的损失 optimizer = optim.Adam(model.parameters(), lr=0.001) # Adam优化器 # 4. 训练(比如训5轮) loss_history = [] # 记录损失 for epoch in range(5): # 喂数据算预测 pred = model(data) # 算损失 loss = loss_fn(pred, labels) # 反向传播+更新参数 optimizer.zero_grad() # 清空之前的梯度 loss.backward() # 算梯度 optimizer.step() # 更新参数 # 记录损失 loss_history.append(loss.item()) print(f"第{epoch+1}轮,损失:{loss.item():.4f}") # 5. 画损失曲线 import matplotlib.pyplot as plt plt.plot(loss_history) plt.xlabel("轮数") plt.ylabel("损失") plt.show()

@浙大疏锦行

版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/4/16 15:47:23

Linux编程网络基础(二)

文章目录 一、源IP和目的IP二、认识端⼝号1.端口号是传输层协议的内容2.端口号范围划分3.“端口号”与“进程ID”4、源端口号和目的端口号 三、Socket四、传输层的典型代表1.TCP协议2.UDP协议 五、网络字节序 一、源IP和目的IP 数据从你的主机(源IP)传输到目标主机(目的IP)并不…

作者头像 李华
网站建设 2026/4/16 15:48:56

工厂模式详解

在设计模式中,工厂模式属于创建型模式,核心是封装对象的创建过程,降低代码耦合度。根据抽象程度和应用场景的不同,工厂模式主要分为 3 种,由简单到复杂依次是:一、简单工厂模式(Simple Factory&…

作者头像 李华
网站建设 2026/4/16 15:49:27

AI驱动的论文查重率管理:初稿至定稿的完整解决方案

在学术写作过程中,查重率是一个关键指标,直接影响研究成果的认可度。如何有效降低重复率成为研究者面临的重要挑战。随着技术进步,多款智能工具应运而生,为学术工作者提供了高效便捷的降重解决方案。这些工具通过先进的算法处理文…

作者头像 李华
网站建设 2026/4/16 15:52:57

三十六: 验证签名

三十六: 验证签名 验证签名步骤: 1:得到一个消息: message: 2:把消息进行keccak256得到hash: hash(message) 3: 把消息进行keccak256得到hash进行链上签名: sign(hash(message), private key) | offchain 4:使用recover验证:ecrecover(hash(message)

作者头像 李华
网站建设 2026/4/16 12:32:42

DAY 39 Dataset和Dataloader

一、数据介绍 CIFAR 是机器学习和计算机视觉领域中广泛使用的图像分类基准数据集,由加拿大高级研究学院(Canadian Institute for Advanced Research,CIFAR)的研究团队发布,主要用于小尺寸图像的分类任务,是…

作者头像 李华
网站建设 2026/4/16 13:59:20

MouseTester:专业鼠标性能检测工具完全攻略

MouseTester:专业鼠标性能检测工具完全攻略 【免费下载链接】MouseTester 项目地址: https://gitcode.com/gh_mirrors/mo/MouseTester 还在为鼠标反应迟钝、指针漂移而困扰吗?MouseTester作为一款基于C#开发的Windows桌面应用,能够通…

作者头像 李华