我的知识记录

digSelf

最新文章

深度解析卷积神经网络(CNN):从像素到模型的完整指南

深度解析卷积神经网络(CNN):从像素到模型的完整指南

本文是一篇关于卷积神经网络(CNN)的综合性技术教程。文章从传统神经网络处理图像的局限性出发,系统性地阐述了CNN的设计哲学——归纳偏置。通过将卷积操作类比为滑动内积,深入剖析了其模式匹配的数学本质。文章逐层递进,详细介绍了从一维到多维、从单通道到多通道的卷积过程,以及填充、步长、池化、激活函数等核
10
1
2025-06-15
从生物神经元到智能学习:深度解析神经网络的原理与反向传播

从生物神经元到智能学习:深度解析神经网络的原理与反向传播

人工神经网络(ANNs)作为现代人工智能的核心,其灵感源于生物神经网络(BNNs),但本质上是对BNNs核心功能的高度抽象和数学化建模。本文深入探讨了这一抽象过程,详细阐述了生物神经元(如突触可塑性、全或无特性、频率编码)如何映射至人工神经元组件(如节点、可变权重、线性加权和与激活函数),并揭示了A
33
1
2025-06-10
从二分类到多分类:Logistic回归、梯度下降与交叉熵损失的深度剖析

从二分类到多分类:Logistic回归、梯度下降与交叉熵损失的深度剖析

本文旨在系统地阐述机器学习中从二分类到多分类问题的基本建模方法、参数估计过程及其优化算法。我们将从概率分布的角度构建二分类模型(如Logistic回归),详细探讨如何利用最大似然估计(MLE)对模型参数进行求解,并深入分析为何该问题通常没有闭式解。随后,我们将引入梯度下降法这一核心数值优化工具,从其标准形式出发,严谨地证明在特定条件下(如强凸和光滑性),固定步长梯度下降法的收敛性,从而为机器学习中的参数优化提供坚实的理论基础。此外,文章还将讨论扩展至多分类问题,介绍了其概率模型(范畴分布)、Softmax激活函数以及对应的交叉熵损失函数,进一步深化了对分类任务的理解。
42
0
2025-06-07
从潜在变量到概率预测:深入理解逻辑斯蒂与Softmax函数

从潜在变量到概率预测:深入理解逻辑斯蒂与Softmax函数

本文深入解析了监督学习中分类问题的核心。它从潜在连续变量和决策边界的角度出发,详尽地推导了 Logistic 函数的多种来源(基于误差分布、生成式模型和启发式方法),最终自然地拓展到处理多分类问题的 Softmax 函数。文章旨在帮助读者透彻理解这些关键概率模型背后的数学原理和直观意义。
64
3
2025-06-04
深入理解监督学习的概率视角:从噪声、建模到MLE与MAP

深入理解监督学习的概率视角:从噪声、建模到MLE与MAP

本文深入探讨了监督学习中概率模型的构建,从数据中的不确定性出发,分层解析了如何通过模型近似真实映射并量化噪声。通过对最大似然估计(MLE)和最大后验估计(MAP)的详细推导与对比,揭示了参数估计背后的统计学原理及其在优化问题中的应用。
66
0
2025-06-02
最优化理论基础:常见优化问题凸性判定举例

最优化理论基础:常见优化问题凸性判定举例

通过具体的例子探讨如何判定常见优化问题中的函数是否为凸函数。凸性是优化领域中的一个关键概念,尤其是在凸优化问题中,凸性确保了局部最优解即为全局最优解。理解如何识别一个函数是否为凸函数对于有效地求解实际问题至关重要。
310
1
2024-08-18
最优化理论基础:判定凸函数

最优化理论基础:判定凸函数

了解如何识别凸函数对于解决实际问题至关重要,凸函数是优化理论和应用中的核心概念之一,它们具有许多优良的性质,特别是对于凸优化问题来说,找到局部最优解就等同于找到了全局最优解。
326
0
2024-08-16
最优化理论基础:矩阵求导

最优化理论基础:矩阵求导

向量和矩阵求导在机器学习、图像处理、最优化等领域的公式推导中经常用到。比如多元线性回归中损失函数是一个标量,每个输入都有多个属性,计算权重权重时就需要用到标量对向量的求导。此外,在计算神经网络梯度时,相比于求解参数矩阵里的单独每一个元素的梯度,使用向量和矩阵求导能极大增加效率。
105
0
2024-08-11
概率论:高斯分布的由来

概率论:高斯分布的由来

最大熵原理视角下的概率密度函数 最大熵原理 最大熵原理(Maximum Entropy Principle, 以下简称MEP): 在给定约束条件下,一个随机变量的概率分布应该使得熵达到最大值。或者说,满足给定约束条件的所有概率分布中,熵最大的概率分布是最能代表当前系统的概率分布。——来自
163
0
2024-08-10
高级数据结构:B树的拆解与实现

高级数据结构:B树的拆解与实现

为什么需要多叉树?二叉树存在的问题现有的计算机一般都会有经典的三级存储:CPU、内存和磁盘。其中,CPU中的缓存访问速度最快,内存次之,磁盘最慢。假设二叉树中的每个节点存储的是磁盘页的话,那么每次查找到二叉树中的一个节点时,都会产生一次磁盘寻址。而一旦数据量很大时,这棵二叉树的高度也会随之增大,从而增加了访问节点时的磁盘寻址次数,这是非常耗时的,这就产生了一个降低树层高的数据结构的需求以加速查找效率...
4185
0
2022-08-17
阅读更多