我的知识记录

digSelf

最优化理论

从二分类到多分类:Logistic回归、梯度下降与交叉熵损失的深度剖析

从二分类到多分类:Logistic回归、梯度下降与交叉熵损失的深度剖析

本文旨在系统地阐述机器学习中从二分类到多分类问题的基本建模方法、参数估计过程及其优化算法。我们将从概率分布的角度构建二分类模型(如Logistic回归),详细探讨如何利用最大似然估计(MLE)对模型参数进行求解,并深入分析为何该问题通常没有闭式解。随后,我们将引入梯度下降法这一核心数值优化工具,从其标准形式出发,严谨地证明在特定条件下(如强凸和光滑性),固定步长梯度下降法的收敛性,从而为机器学习中的参数优化提供坚实的理论基础。此外,文章还将讨论扩展至多分类问题,介绍了其概率模型(范畴分布)、Softmax激活函数以及对应的交叉熵损失函数,进一步深化了对分类任务的理解。
22
0
2025-06-07
深入理解监督学习的概率视角:从噪声、建模到MLE与MAP

深入理解监督学习的概率视角:从噪声、建模到MLE与MAP

本文深入探讨了监督学习中概率模型的构建,从数据中的不确定性出发,分层解析了如何通过模型近似真实映射并量化噪声。通过对最大似然估计(MLE)和最大后验估计(MAP)的详细推导与对比,揭示了参数估计背后的统计学原理及其在优化问题中的应用。
57
0
2025-06-02
最优化理论基础:常见优化问题凸性判定举例

最优化理论基础:常见优化问题凸性判定举例

通过具体的例子探讨如何判定常见优化问题中的函数是否为凸函数。凸性是优化领域中的一个关键概念,尤其是在凸优化问题中,凸性确保了局部最优解即为全局最优解。理解如何识别一个函数是否为凸函数对于有效地求解实际问题至关重要。
306
1
2024-08-18
最优化理论基础:判定凸函数

最优化理论基础:判定凸函数

了解如何识别凸函数对于解决实际问题至关重要,凸函数是优化理论和应用中的核心概念之一,它们具有许多优良的性质,特别是对于凸优化问题来说,找到局部最优解就等同于找到了全局最优解。
316
0
2024-08-16
最优化理论基础:矩阵求导

最优化理论基础:矩阵求导

向量和矩阵求导在机器学习、图像处理、最优化等领域的公式推导中经常用到。比如多元线性回归中损失函数是一个标量,每个输入都有多个属性,计算权重权重时就需要用到标量对向量的求导。此外,在计算神经网络梯度时,相比于求解参数矩阵里的单独每一个元素的梯度,使用向量和矩阵求导能极大增加效率。
104
0
2024-08-11
最优化理论:凸优化中的对偶

最优化理论:凸优化中的对偶

一个问题可以通过不同的角度来进行观察和求解,那么对于优化问题,它的对应的角度是什么呢?是对偶问题...
2730
0
2021-08-18
最优化理论:优化问题、凸集和凸函数

最优化理论:优化问题、凸集和凸函数

机器学习的问题一般都可以归结为是优化问题,而优化问题中最重要的一部分就是凸优化问题。凸集保证了在算法运行过程中,计算的点不会跑到定义域外面去;而凸函数保证了局部最优解就是全局最优解...
2976
2
2021-08-14