直观地探索R2和调整后的R2指标
R2和调整后的R2指标的直观探索
在本文中,您将直观地了解R2和调整后的R2指标的工作原理。
R2广泛用作回归机器学习任务的评估指标。它可以找出目标特征(依赖特征)的方差中有多少可以由机器学习模型解释(模型基本上是独立特征的函数)。
现在,您可能会想知道了解目标特征的方差有什么好处。为了回答这个问题,我们需要知道方差如何被视为一种信息测量工具。基本上,一个事物的方差越大,我们对该事物的信息就越多。
为了理解这个概念,让我们举一个例子。假设我们正在玩一个游戏,在这个游戏中,我们的三个朋友都蒙着脸,现在我们需要仅根据他们的身高来识别他们。如果三个朋友之间的身高差异(即身高的方差)相当大,那么识别所有朋友将非常容易。另一方面,如果朋友们的身高相近,仅根据身高就会很难识别他们。在这种情况下,我们需要看一些其他标准,比如体重。
因此,当我们在身高上有更大的差异时,我们可以轻松识别三个朋友。这个例子解释了方差如何被视为信息度量。
R2指标
R2将我们训练的模型与始终输出数据点均值的模型进行比较(黄线与绿线相比有多好)。
要找出R2指标,我们需要知道两个值:
- 目标特征值围绕数据均值的方差(平均方差),即与绿线相关的灰点的方差。
- 目标特征围绕最佳拟合线的方差(模型方差),即与黄线相关的灰点的方差。
平均方差也可以解释为由为每个输入输出数据均值的模型解释的目标特征的方差。这可以通过在纵轴上以我们数据点的所有y坐标的平均值为切割点的水平线(图中的绿线)来解释。
模型方差可以理解为由我们训练的模型解释给定数据的目标特征的方差(图中的黄线)。
如何解释R2
R2值表示可以由您的模型解释的目标特征的方差比例。解释的方差比例越大,您的模型越好。因此,接近1的R2值对应一个好的模型,接近0的值对应一个差的模型。
假设我们的模型的R2值为0.85。这个说法意味着我们训练的模型解释了目标特征中85%的方差。
R2的可能值
- R2存在于0和1之间(包括0和1)。有时,它也可以是负数。当我们在训练数据上训练模型,然后在新数据上测试训练好的模型时,可能会出现负值情况。这是因为新数据的预测方差不一定小于平均模型的方差。如果我们在训练数据上训练并再次在训练数据上测试我们的模型,我们总是会得到一个正的R2值。
- R2 = 0 => 训练得到的模型等效于平均模型(性能非常差的模型)
- R2的最大值为1。
R2的问题
每当我们向训练数据添加一个新的独立特征时,R2都会增加。即使我们向训练数据添加了一些无用或随机的特征,这种情况也会发生。这是因为在随机数据中很容易找到一点相关性。但是这种小的相关性可能会导致我们的模型过度拟合。因此,我们需要一个性能指标,它不会因为这种小的相关性而增加。这个问题可以通过另一个性能指标来解决,该指标被称为调整后的R2。
调整后的R2指标
调整后的R2的基本思想是随着我们不断向模型添加新特征,对得分进行惩罚。
当我们增加m的值时,分母(n-m-1)会减小。因此,如果我们没有发现R2的显著增加,那么整个表达式的值不会增加,甚至可能会减小。
简而言之,
R2值的轻微增加(由于不重要的特征添加)=>调整后的R2保持几乎不变,甚至可能减小
R2值的显著增加(由于重要的特征添加)=>调整后的R2显著增加
结尾
希望您喜欢这篇文章。关注我的VoAGI以阅读更多类似的文章。
在LinkedIn上与我联系
在网站上了解更多关于我的信息
发送邮件至[email protected]
参考资料:
书名为《使用Scikit-Learn、Keras和TensorFlow进行动手学习机器学习》
解释负R-squared。R-squared为什么会为负数,何时为负数… | by Tan Nian Wei | Towards Data Science
用零数学直观解释主成分分析(PCA)| by Casey Cheng | Towards Data Science
(1882)回归度量| MSE、MAE和RMSE | R2得分和调整后的R2得分 — YouTube
(1882) R-squared,清楚解释!!! — YouTube