从二分类到多分类:Logistic回归、梯度下降与交叉熵损失的深度剖析
本文旨在系统地阐述机器学习中从二分类到多分类问题的基本建模方法、参数估计过程及其优化算法。我们将从概率分布的角度构建二分类模型(如Logistic回归),详细探讨如何利用最大似然估计(MLE)对模型参数进行求解,并深入分析为何该问题通常没有闭式解。随后,我们将引入梯度下降法这一核心数值优化工具,从其标准形式出发,严谨地证明在特定条件下(如强凸和光滑性),固定步长梯度下降法的收敛性,从而为机器学习中的参数优化提供坚实的理论基础。此外,文章还将讨论扩展至多分类问题,介绍了其概率模型(范畴分布)、Softmax激活函数以及对应的交叉熵损失函数,进一步深化了对分类任务的理解。