用Python全面解释多类别标签的Softmax回归
用 Python 全面解释多类别标签的 Softmax 回归方法
机器学习中的监督多类分类
介绍
在逻辑回归中,我们处理的是二元分类,即输出列中有两个类别。然而,在现实世界中,我们会遇到各种类型的数据,有时输出列中会有两个以上的类别。在这种情况下,我们可以使用 softmax 回归。softmax 回归是一种多项式逻辑回归或多类分类算法。对于逻辑回归来说,我们可以说它是一种 softmax 回归的形式。
有些学习者可能会认为我们在解决一个分类问题,但是我们在算法名称中使用了回归。由于逻辑回归的基本计算只是线性的,研究人员只是将函数添加到线性输出中以进行分类。
softmax 函数创建了所有类别的概率分布,其输出总和为 1。例如,如果输出列中有 4 个类别,这些类别的概率可能是 [0.23, 0.45, 0.12, 0.20]。这意味着具有最高概率的类别很可能是基于输入的预测。
- 耶鲁大学和谷歌的研究人员引入HyperAttention:一种加速大型语言模型以实现高效长距离序列处理的近似注意力机制
- Facebook的十亿级搜索算法被重新利用于高效导航蛋白质组数据
- “揭开扩散模型之谜:深入探索”
首先非常重要的是先查看数据,观察数据,并找到输入和目标列或特征。下一步是检查是否有输出列,若有则为回归或分类问题,若没有则为基于聚类的方法。
在观察了所有这些东西之后,下一步是全面了解数据特征。阅读特征信息后,研究人员可以轻松解释那些有助于特征工程转换的重要特征。
将要涵盖的主题:
- 不使用任何转换的 softmax 回归模型
- 对偏态分布列使用对数转换的 softmax 回归模型
- 使用特征缩放的 softmax 回归模型
下一部分是对数据进行可视化。
使用 Python 的 softmax 回归示例:
import numpy as np import pandas as pd import seaborn as snsimport matplotlib.pyplot as pltfrom...




