0
用微信扫码二维码
分享至好友和朋友圈
来源:市场资讯
(来源:图灵人工智能)
人工智能(AI)在表面上看起来像是能够理解语言、识别图像、甚至进行创作的“魔法”。但揭开这层魔法的帷幕,其底层并没有自主的意识,而是由极其精妙的数学规律与工程代码在高速运转。
如果我们把构建一个 AI 模型比作打造一个极其复杂的数字系统,那么构成其底层逻辑的,正是以下五大数学分支。
1. 线性代数:数据的骨架(把杂乱的世界打包成矩阵)
![]()
核心思想:万物皆可近似向量化。
在人类眼中,世界是五彩斑斓的图片、长短不一的文字、高低起伏的声音。但在 AI 眼中,世界只有数字。线性代数的作用,就是为这个杂乱无章的现实世界建立一个整齐划一的“骨架”。
-
向量(Vector)与表示: 一张图片可以被拆解为一个包含千万个像素值的数组;一个词语可以被映射成一个包含几百个数字的向量(Word Embedding)。这些向量不仅代表了特征,还在经验上展现出了语义空间中的方向和相对距离(比如经典词向量中的“国王-男人+女人≈女王”)。
-
矩阵(Matrix)与变换: 神经网络的核心计算大量依赖矩阵乘法();而真正让模型具备强表达能力的,还包括非线性激活函数、归一化、注意力等机制。矩阵 就像是一组“滤镜”或“转换器”,把输入的数据从一个空间映射到另一个空间,提取出核心特征。
-
张量(Tensor): 无论是 ChatGPT 还是 Sora,它们处理的多维数据(时间序列、空间图像等)统称为张量。现今最著名的 AI 框架之一 TensorFlow,其名字的意思就是“张量在流动”。
作用阶段:贯穿训练与推理全过程线性代数是 AI 处理数据的基本容器。无论是模型训练时的高维运算,还是推理时对用户输入的解析,现实世界的复杂信息都必须借由它才能被计算机消化。
2. 概率论与统计:认知的世界观(在模糊的世界中寻找确定的规律)
![]()
核心思想:世界不是非黑即白的,智能是对不确定性的最佳猜测。
传统的程序是基于确定性逻辑的(如果 A,那么 B)。但现实世界充满了噪音和未知,AI 必须学会在不完美的条件下做出判断。概率论赋予了 AI 认识世界的“模糊逻辑”。
-
模型即分布: 当 AI 识别一张猫的图片时,它通常不输出绝对的结论,而是输出一个概率分布:“98% 是猫,1.5% 是狗,0.5% 是老虎”。
-
贝叶斯思维(Bayes’ Theorem): 贝叶斯思想为 AI 提供了理解不确定性的重要框架,即根据新证据更新信念;不过需要明确,主流深度学习训练通常基于梯度优化,并不等同于严格的显式贝叶斯更新。
-
生成式 AI 的核心: 以 ChatGPT 为代表的自回归语言模型,本质上是在建模“给定上下文时下一个 token 的条件概率分布”;而图像生成(扩散模型 Diffusion)则是学习一个逐步去噪的生成过程,把简单的噪声分布映射到有意义的数据分布。
作用阶段:贯穿训练与推理全过程训练时,概率统计定义了模型学习的目标(如最大似然估计);推理时,它则决定了模型生成内容的多样性与置信度。
3. 信息论:量化的标尺(衡量 AI 学到了多少有用的东西)
![]()
核心思想:用数学公式来称量“知识”的重量。
AI 每天在处理海量数据,但它到底学到了多少有用的特征,有多少只是“噪音”?香农(Claude Shannon)创立的信息论,为 AI 的学习效果提供了一把精准的标尺。
-
熵(Entropy): 熵衡量的是随机变量的不确定性或平均信息量。在机器学习里,很多任务并不是简单地“让熵越低越好”(极低的熵有时意味着过拟合或极度自信),而是要让模型学到更符合真实目标的概率分布。
-
交叉熵(Cross-Entropy): 这是如今深度学习中最常用的损失函数(Loss Function)。真实答案有一个概率分布,AI 预测的答案也有一个概率分布。交叉熵常用来衡量这两个分布的不一致程度;它虽然常被通俗比喻为“距离”,但严格来说不对称,并非数学上的真实距离度量。
-
KL 散度(KL Divergence): 在很多高级的 AI 架构(如变分自编码器 VAE)中,KL 散度被用来衡量 AI 内部构建的概念分布与目标分布之间的差异,强迫 AI 去学习最精简、最有效的信息表达。
作用阶段:主要集中在训练阶段信息论是悬在 AI 头顶的考官。它主要用于训练阶段的损失函数设计与模型评估,用冰冷的公式告诉模型:你的预测距离真实的数据生成机制,到底还有多远。
4. 微积分:进化的引擎(驱动 AI 朝着错误率更低的方向前进)
![]()
核心思想:寻找方向,一步步走向最优解。
如果线性代数搭建了模型,概率论定义了目标,信息论给出了评分,那么谁来让模型“变聪明”呢?答案是微积分。它是驱动 AI 不断迭代、自我修正的引擎。
-
导数与梯度(Gradient): 想象 AI 是一个被蒙上眼睛放在群山之巅的人,它的目标是走到谷底(误差最小的地方)。微积分(偏导数)就是它脚下的触觉,能告诉它当前所站的位置,哪个方向的坡度最陡(梯度下降法)。不过在高维非凸优化里,通常只能保证局部下降,不保证全局最优;现实训练中常用的是随机梯度下降(SGD)及其变体。
-
链式法则与反向传播(Backpropagation): 这是现代深度学习能够成功的绝对核心。当数亿参数的网络犯错时,反向传播机制通过微积分的链式法则,将“最终的误差”像水流一样一层一层向后推导,精确计算出每一个参数的梯度。
作用阶段:绝大多数集中在训练阶段微积分是驱动参数优化的脉搏。模型在部署前(训练阶段)通过它在错误中学习;而在我们日常使用 ChatGPT 时(推理阶段),这一引擎已经熄火,模型参数被冻结,不再进行梯度更新。
5. 图论与离散数学:逻辑的地图(教会 AI 理解结构与关系)
![]()
核心思想:智能不仅在于识别个体,更在于理解连接。
人类的智慧很大程度上来自于对复杂关系的理解。并非所有的数据都能简单地排成一列或摆成方阵,图论和离散数学为 AI 提供了理解复杂拓扑结构的地图。
-
图神经网络(GNN): 社交网络、分子结构、交通道路网等本质上都是“图(Graph)”。图学习通过局部邻域的信息聚合,让 AI 能够理解“谁和谁是相连的”、“这个原子的相邻结构如何”等网络拓扑特征。
-
状态空间与搜索树: 像 AlphaGo 击败李世石,其底层除了深度神经网络,还深度依赖蒙特卡洛树搜索(MCTS)。离散数学帮助 AI 将复杂的决策过程建模成一棵庞大的“博弈树”,并在其中寻找相对最优路径。
-
符号逻辑与推理: 当前的纯深度学习模型在严谨的数学证明和长程逻辑推理上仍有欠缺。未来,深度学习(偏连续数学)与离散数学(偏符号逻辑)的结合(Neuro-symbolic AI),被认为是通向更高阶智能的重要途径。
作用阶段:贯穿训练与推理全过程图论与离散数学赋予了 AI 处理非欧几里得空间数据的能力,主要体现在先期的架构设计(如网络拓扑)与推理时的搜索算法中。它让 AI 系统从“单纯的网格数据提取器”向“具备复杂关系捕捉能力的系统”跨越。
6.拼图的另一半:优化算法与工程算力
![]()
从理论到落地,仅仅有数学公式是远远不够的。AI 能够真正“跑起来”并产生改变世界的效果,还离不开庞大的工程体系:
-
优化算法与数值计算: 理论上微积分指明了优化的方向,但在动辄数百层的网络中,如何避免梯度消失或爆炸?如何设计 AdamW 这样高效、稳健的优化器以处理非凸优化问题?这需要极深的数值稳定性研究。
-
并行计算与硬件支持: 如果依靠传统的 CPU 串行计算,完成几千亿参数的矩阵乘法可能需要几百年。今天大模型的繁荣,其物理根基建立在 GPU 的大规模并行加速、CUDA 生态,以及复杂分布式训练集群(如张量并行、流水线并行)的技术突破之上。
结语:交织的交响乐
当我们对 ChatGPT 提出一个问题时,这些数学基石与工程系统在微秒级的时间内同时起舞:
你的文字先被线性代数转化为张量表示;微积分此前早已通过反向传播驱动了庞大模型的参数优化;模型通过注意力机制(Attention)和大规模矩阵运算,精准捕捉了词语之间的依赖关系;随后利用概率论计算出条件概率分布,进而生成下一个字符;而这一切分布的拟合与优化,都曾在信息论的严苛标尺下被反复打磨,并最终由强大的算力集群将其化为现实。人工智能并不神秘,它是人类几千年数学文明与现代计算机工程在硅基芯片上开出的最绚烂的花朵。
注:上文将 AI 的底层逻辑拆解为“五大数学基石”,这是一种为了方便大家理解的科普化分法,并非严格的学科全景。在现实中,AI 的成功不仅依赖这几大数学理论,还深度交织着优化算法、数值计算、计算机体系结构以及海量的工程实现。
本文的完成,需感谢多个AI助手的辅助。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.
下载网易新闻客户端
