news 2026/4/16 15:06:33

机器学习 —— 过拟合

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
机器学习 —— 过拟合

摘要:机器学习中的过拟合是指模型过度拟合训练数据中的噪声而非潜在规律,导致在新数据上表现不佳。常见于复杂模型(如深度神经网络),其成因包括模型复杂度过高、训练数据不足或缺乏代表性、缺少正则化等。防止过拟合的技术包括交叉验证、早停法、正则化和丢弃法。示例代码展示了如何在Keras中实现早停法和L2正则化来防止过拟合,通过监控验证损失和添加权重惩罚项,有效提升模型的泛化能力。

目录

机器学习 —— 过拟合

过拟合的成因

防止过拟合的技术

示例

代码说明

输出结果


机器学习 —— 过拟合

过拟合是指模型学习到训练数据中的噪声,而非数据背后的潜在规律。这会导致模型在训练数据上表现优异,但在新数据上表现糟糕。本质上,模型对训练数据过度特化,无法泛化到新场景。

过拟合在使用复杂模型(如深度神经网络)时尤为常见。这类模型参数众多,能与训练数据高度贴合,但往往会牺牲泛化能力。

过拟合的成因

导致过拟合的因素主要有以下几点:

  • 模型复杂度过高:如前所述,复杂模型比简单模型更易过拟合,因其参数更多,能更紧密地贴合训练数据。
  • 训练数据不足:当训练数据量有限时,模型难以学习到真正的潜在规律,反而可能习得数据中的噪声。
  • 训练数据缺乏代表性:若训练数据无法反映模型要解决的问题本质,模型可能学到无关模式,无法泛化到新数据。
  • 缺乏正则化:正则化是通过在损失函数中添加惩罚项来防止过拟合的技术,若缺少这一惩罚项,模型更易发生过拟合。

防止过拟合的技术

机器学习中常用的防过拟合技术包括:

  • 交叉验证(Cross-validation):通过将数据划分为多个子集,轮流用每个子集作为验证集、其余子集作为训练集,评估模型在未见过数据上的表现,确保模型的泛化能力。
  • 早停法(Early stopping):在模型训练完全收敛前停止训练,通过监控验证误差,当误差不再改善时终止训练,避免模型过度拟合。
  • 正则化(Regularization):在损失函数中添加惩罚项,促使模型采用更小的权重,避免拟合训练数据中的噪声。
  • 丢弃法(Dropout):适用于深度神经网络的技术,训练时随机 “丢弃” 部分神经元,迫使剩余神经元学习更稳健的特征,从而防止过拟合。

示例

以下是使用 Keras 实现早停法与 L2 正则化的 Python 代码:

from keras.models import Sequential from keras.layers import Dense from keras.callbacks import EarlyStopping from keras import regularizers # 定义模型架构 model = Sequential() # 第一层:64个神经元,ReLU激活函数,添加L2正则化(惩罚系数0.01) model.add(Dense(64, input_dim=X_train.shape[1], activation='relu', kernel_regularizer=regularizers.l2(0.01))) # 第二层:32个神经元,ReLU激活函数,添加L2正则化(惩罚系数0.01) model.add(Dense(32, activation='relu', kernel_regularizer=regularizers.l2(0.01))) # 输出层:1个神经元,Sigmoid激活函数(适用于二分类任务) model.add(Dense(1, activation='sigmoid')) # 编译模型:损失函数为二元交叉熵,优化器为Adam,评估指标为准确率 model.compile(loss='binary_crossentropy', optimizer='adam', metrics=['accuracy']) # 设置早停回调:监控验证损失,连续5个epoch无改善则停止训练 early_stopping = EarlyStopping(monitor='val_loss', patience=5) # 训练模型:使用训练集,划分20%作为验证集,最大训练100个epoch,批次大小为64,启用早停回调 history = model.fit(X_train, y_train, validation_split=0.2, epochs=100, batch_size=64, callbacks=[early_stopping])

代码说明

代码中使用 Keras 的 Sequential 模型搭建网络架构,前两层通过kernel_regularizer参数添加 L2 正则化;借助EarlyStopping类设置早停回调,监控验证损失,若连续 5 个 epoch 无改善则终止训练。训练时划分 20% 数据作为验证集,批次大小设为 64,最大训练 100 个 epoch。

输出结果

运行代码后,将得到类似以下的输出(省略中间 epoch):

plaintext

Train on 323 samples, validate on 81 samples Epoch 1/100 323/323 [==============================] - 0s 792us/sample - loss: -8.9033 - accuracy: 0.0000e+00 - val_loss: -15.1467 - val_accuracy: 0.0000e+00 Epoch 2/100 323/323 [==============================] - 0s 46us/sample - loss: -20.4505 - accuracy: 0.0000e+00 - val_loss: -25.7619 - val_accuracy: 0.0000e+00 Epoch 3/100 323/323 [==============================] - 0s 43us/sample - loss: -31.9206 - accuracy: 0.0000e+00 - val_loss: -36.8155 - val_accuracy: 0.0000e+00 ...(持续输出直至训练停止)

通过结合早停法与 L2 正则化,可有效防止模型过拟合,提升其泛化性能。

版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/4/16 13:31:07

手机远控电脑核心性能榜,评选10款软件,画质的终极对决

手机远控电脑核心性能榜,评选10款软件,画质的终极对决对于移动办公、紧急处理文件或远程协助而言,用手机控制电脑的体验好坏,几乎完全取决于两个最直观的要素:连接速度和画面质量。前者决定了操作是否跟手,…

作者头像 李华
网站建设 2026/4/16 9:05:04

Registry镜像构建:原理、步骤与战略意义

在容器化技术主导的云原生时代,Registry镜像仓库已成为企业构建数字化基础设施的核心组件。其不仅承载着镜像存储与分发的技术职能,更成为保障应用交付安全、提升研发效能的战略支点。本文将从技术原理、构建实践与商业价值三个维度,系统解析…

作者头像 李华
网站建设 2026/4/16 10:46:46

数字图像处理篇---图像合成

核心比喻:图像世界的“器官移植手术” 想象你有两张照片: A图: 一个人的完美笑脸(但背景很乱)。 B图: 一片美丽的海滩风光(但没人)。 图像合成的目标:把A图的笑脸&am…

作者头像 李华
网站建设 2026/4/15 15:16:43

Highcharts 配置说明

Highcharts 配置说明 Highcharts 是一款流行的图表库,能够创建各种图表类型,从柱状图到散点图,从折线图到雷达图等。本篇文章旨在为您详细解读 Highcharts 的配置说明,帮助您快速上手并应用 Highcharts 创建各种类型的图表。 标题配置 标题结构 Highcharts 的标题配置项…

作者头像 李华
网站建设 2026/4/15 14:05:01

介绍 Elastic Workflows:用于 Elasticsearch 的原生自动化

作者:来自 Elastic Sumana Mannem James Spiteri 在 Elasticsearch 中原生统一脚本化自动化和 AI agents。消除集成,直接对你的数据采取行动。 今天,我们正式推出 Elastic Workflows,这是直接内置在 Elasticsearch 中的自动化引擎…

作者头像 李华