超参数调整:神经网络 101

优化超参数:深度学习神经网络入门指南

如何通过调整超参数来提高神经网络的“学习”和“训练”

神经网络图标由Vectors Tank - Flaticon创建。神经网络图标。https://www.flaticon.com/free-icons/neural

背景

在我之前的文章中,我们讨论了神经网络如何预测和从数据中学习。这其中有两个过程负责这一点:前向传递和后向传递,也被称为反向传播。您可以在这里了解更多信息:

前向传递和反向传播:神经网络 101

通过手动和使用PyTorch的代码来解释神经网络如何“训练”和“学习”数据中的模式

towardsdatascience.com

本文将深入探讨如何优化这个“学习”和“训练”过程以提高模型的性能。我们将涵盖的领域包括计算改进和超参数调整以及如何在PyTorch中实施!

但是,在开始之前,让我们快速回顾一下神经网络!

快速回顾:神经网络是什么?

神经网络是一种大型的数学表达式,试图找到一种“正确”的函数,可以将一组输入映射到其相应的输出。下面是一个神经网络的示例:

一个基本的两个隐藏层多层感知机。图作者:作者。

每个隐藏层神经元执行以下计算:

每个神经元内部进行的过程。图作者:作者。
  • 输入:这些是我们数据集的特征。
  • 权重:缩放输入的系数。算法的目标是通过梯度下降找到最优系数。
  • 线性加权和:求输入和权重的乘积的总和,并添加偏差/偏移项,b
  • 隐藏层:存储多个神经元以学习数据集中的模式。上标代表层,下标代表该层中的神经元编号。