我的知识记录

digSelf

分类

从二分类到多分类:Logistic回归、梯度下降与交叉熵损失的深度剖析

从二分类到多分类:Logistic回归、梯度下降与交叉熵损失的深度剖析

本文旨在系统地阐述机器学习中从二分类到多分类问题的基本建模方法、参数估计过程及其优化算法。我们将从概率分布的角度构建二分类模型(如Logistic回归),详细探讨如何利用最大似然估计(MLE)对模型参数进行求解,并深入分析为何该问题通常没有闭式解。随后,我们将引入梯度下降法这一核心数值优化工具,从其标准形式出发,严谨地证明在特定条件下(如强凸和光滑性),固定步长梯度下降法的收敛性,从而为机器学习中的参数优化提供坚实的理论基础。此外,文章还将讨论扩展至多分类问题,介绍了其概率模型(范畴分布)、Softmax激活函数以及对应的交叉熵损失函数,进一步深化了对分类任务的理解。
22
0
2025-06-07
从潜在变量到概率预测:深入理解逻辑斯蒂与Softmax函数

从潜在变量到概率预测:深入理解逻辑斯蒂与Softmax函数

本文深入解析了监督学习中分类问题的核心。它从潜在连续变量和决策边界的角度出发,详尽地推导了 Logistic 函数的多种来源(基于误差分布、生成式模型和启发式方法),最终自然地拓展到处理多分类问题的 Softmax 函数。文章旨在帮助读者透彻理解这些关键概率模型背后的数学原理和直观意义。
56
3
2025-06-04
深入理解监督学习的概率视角:从噪声、建模到MLE与MAP

深入理解监督学习的概率视角:从噪声、建模到MLE与MAP

本文深入探讨了监督学习中概率模型的构建,从数据中的不确定性出发,分层解析了如何通过模型近似真实映射并量化噪声。通过对最大似然估计(MLE)和最大后验估计(MAP)的详细推导与对比,揭示了参数估计背后的统计学原理及其在优化问题中的应用。
57
0
2025-06-02
概率论:高斯分布的由来

概率论:高斯分布的由来

最大熵原理视角下的概率密度函数 最大熵原理 最大熵原理(Maximum Entropy Principle, 以下简称MEP): 在给定约束条件下,一个随机变量的概率分布应该使得熵达到最大值。或者说,满足给定约束条件的所有概率分布中,熵最大的概率分布是最能代表当前系统的概率分布。——来自
161
0
2024-08-10
机器学习:单隐层前馈神经网络

机器学习:单隐层前馈神经网络

由多个简单单元并行互连所构成的网络,这些基础单元被称为神经元,这个网络称为神经网络。神经网络被用来模拟生物对于外界刺激的真实反应。神经元模型可以有若干个输入和一个输出,当输入的电信号足够强时,神经元会被激活...
4075
0
2022-02-22
机器学习:线性模型

机器学习:线性模型

线性模型指的是假设可以通过属性空间中的各个属性的线性组合所得到的预测函数对新样本进行预测,即对给定的新样本作为输入,用使用预测函数所得到的输出值作为新样本的真实值的预测...
2593
1
2022-02-19
机器学习基础:背景介绍与pandas对象的创建

机器学习基础:背景介绍与pandas对象的创建

由于许多机器学习框架都是用Python编写的,因此使用一个基于Python的数据分析框架是十分必要的,Pandas就是一款基于Python的数据分析框架,因此我们需要学会并掌握它...
2597
0
2021-11-01
机器学习基础:对NumPy数组进行数据处理操作

机器学习基础:对NumPy数组进行数据处理操作

在将目标数据加载到NumPy数组中后,就需要进行一系列的数组处理操作,包括:对NumPy数组的访问、切片、过滤、计算数据的统计学指标、数据间的聚合和组合以及对计算后的结果保存和再加载的操作,本篇博文就对上述常用操作进行了阐述...
3004
0
2021-10-31
机器学习基础:通过NumPy生成随机数与样本采样

机器学习基础:通过NumPy生成随机数与样本采样

在机器学习的任务中,经常需要对某一个集合进行随机采样,而随机采样就需要使用随机数。本节学习的是通过不同的随机分布产生数值或者数组...
3130
0
2021-10-31
机器学习基础:使用NumPy做算术运算和矩阵运算

机器学习基础:使用NumPy做算术运算和矩阵运算

创建`NumPy`数组的目的就是为了运算,因此理解在`NumPy`中如何进行数学运算和线性代数运算,以及如何使用`NumPy`做上述运算是十分必要的...
2546
0
2021-10-31