当前位置: 首页 > news >正文

人工智能入门学习DAY3

Day 3 学习记录

一、今日学习目标

由于今日状态不佳,重点攻克两个核心概念:

  • 向量的距离(欧式距离)
  • 梯度与梯度下降

二、向量的距离(欧式距离)

本质

两个向量之间的直线距离


基本公式

设两个向量 \(\boldsymbol{a}, \boldsymbol{b}\)

\[d(\boldsymbol{a}, \boldsymbol{b}) = \sqrt{\sum_{i=1}^{n}(a_i - b_i)^2} \]


等价形式

  1. 列向量形式(线性代数常用)

\[d(\boldsymbol{a}, \boldsymbol{b}) = \sqrt{(\boldsymbol{a} - \boldsymbol{b})^T (\boldsymbol{a} - \boldsymbol{b})} \]

  1. 行向量形式(代码中常见)

\[d(\boldsymbol{a}, \boldsymbol{b}) = \sqrt{(\boldsymbol{a} - \boldsymbol{b})(\boldsymbol{a} - \boldsymbol{b})^T} \]

  1. 范数形式(论文常用)

\[d(\boldsymbol{a}, \boldsymbol{b}) = | \boldsymbol{a} - \boldsymbol{b} |_2 \]

本质:欧式距离等于向量差的 L2 范数


与损失函数的关系(MSE)

\[MSE = \frac{1}{2m} \sum_{i=1}^m (y_{pred}^{(i)} - y_{true}^{(i)})^2 = \frac{1}{2m} | \boldsymbol{y_{pred}} - \boldsymbol{y_{true}} |_2^2 \]


三、梯度与梯度下降


  1. 梯度(Gradient)

定义

对于函数:

\[f(\boldsymbol{x}) = f(x_1, x_2, ..., x_n) \]

其中:

\[\boldsymbol{x} = \begin{pmatrix} x_1 \ x_2 \ \vdots \ x_n \end{pmatrix} \]

梯度定义为:

\[\nabla f(\boldsymbol{x}) = \begin{pmatrix} \frac{\partial f}{\partial x_1} \ \frac{\partial f}{\partial x_2} \ \vdots \ \frac{\partial f}{\partial x_n} \end{pmatrix} \]


意义

  • 几何意义:函数增长最快的方向
  • 物理意义:最大变化率方向
  • 机器学习意义:参数对损失的影响程度

作用

  1. 指明优化方向(下降最快方向)
  2. 衡量参数重要性
  3. 连接模型与优化
  4. 解决高维优化问题

应用

  • 线性回归、逻辑回归
  • 神经网络反向传播
  • 优化器(SGD、Adam、RMSprop)

  1. 梯度下降(Gradient Descent)

定义

梯度下降是一种基于一阶导数的迭代优化算法,其核心逻辑是:沿目标函数在当前点的梯度反方向,以一定步长更新参数,使函数值逐步减小。


迭代公式

单变量:

\[x_{t+1} = x_t - \eta f'(x_t) \]

多变量:

\[\boldsymbol{x}_{t+1} = \boldsymbol{x}_t - \eta \nabla f(\boldsymbol{x}_t) \]


机器学习中的形式(线性回归)

\[\boldsymbol{W}_{t+1} = \boldsymbol{W}_t - \eta \cdot \frac{1}{m} \boldsymbol{X}^T (\boldsymbol{X}\boldsymbol{W}_t + b_t - \boldsymbol{y}) \]

\[b_{t+1} = b_t - \eta \cdot \frac{1}{m} \sum_{i=1}^m (\boldsymbol{x}^{(i)}\boldsymbol{W}_t + b_t - y^{(i)}) \]


收敛条件

满足以下任一条件时停止迭代:

  • 梯度的模长趋近于 0:

    \[|\nabla f(\boldsymbol{x}_t)| < \epsilon \]

  • 目标函数变化量很小:

    \[|f(\boldsymbol{x}_{t+1}) - f(\boldsymbol{x}_t)| < \epsilon \]

  • 达到预设最大迭代次数


核心理解

  • 本质:一种逐步逼近最优解的搜索策略
  • 学习率:控制收敛速度与稳定性
  • 过程:不断从高损失区域向低损失区域移动

作用

  1. 机器学习模型训练的核心方法
  2. 构建完整训练流程
  3. 支撑深度学习模型
  4. 降低优化问题复杂度

总结

今天主要学习了两个核心内容:

  • 欧式距离:用于衡量数据之间的差异
  • 梯度下降:用于优化模型参数

这两部分共同构成了机器学习中的基础数学框架。

http://www.jsqmd.com/news/541108/

相关文章:

  • 英雄联盟智能工具League-Toolkit:效率提升与智能辅助完全指南
  • 白发转黑哪个品牌有效?黑奥秘头皮生态论,根源调理更专业 - 美业信息观察
  • TVM构建系统详解:CMake与Makefile配置最佳实践
  • TagStudio自定义主题开发终极指南:打造个性化视觉体验
  • 在 C# 中,原子操作主要通过 System.Threading 命名空间中的工具和 Interlocked 类实现,用于确保多线程环境下的线程安全操作
  • 白转黑哪个养发机构更专业?黑奥秘AI智能检测,千人千方更精准 - 美业信息观察
  • HertzBeat自定义监控模板开发终极指南:打造专属监控能力 [特殊字符]
  • 手把手教你用MATLAB读取南极洲流域边界SHP文件(附避坑指南)
  • Leaflet地图定位全攻略:从点位到多边形的4种实战方法(附代码)
  • Day 7
  • AI检测率太高论文过不了?这4个AI写作智能降重工具2026年必须用!
  • nanomsg性能调优终极指南:从缓冲区大小到线程数配置的完整优化方案
  • 谐波线性化方法下MMC交直流侧阻抗建模与扫频验证探索
  • 电车充电端口识别,正确识别率可达94.1%,支持yolo,coco json,pasical voc xml格式标注,可识别CCS1,CCS2,ChadeMo,Tesla等类型的插口,3348张原始图
  • 图像融合质量评估:5个关键指标详解与实战应用指南
  • OpenClaw对比测试:Qwen3.5-9B与其他模型在自动化任务中的表现
  • 医疗预约自动化全攻略:从抢号困境到智能解决方案
  • 少样本学习实战指南:从零搭建Pytorch模型解决医疗影像分类(附代码)
  • Logan日志数据治理终极指南:实现数据质量与生命周期管理的最佳实践
  • 3种开源内容访问工具技术解析:从原理到合规实践指南
  • Spacebar机器人开发终极指南:如何快速构建自动化聊天管理工具
  • 3步搞定NFT图层配置:HashLips Art Engine零基础指南
  • 火狐浏览器广告过滤插件怎么选?2024年实测对比uBlock Origin、AdGuard和AdBlock Plus
  • AKShare金融数据接口:5分钟从零开始掌握Python金融数据获取
  • Faraday漏洞管理平台:快速生成专业安全评估报告的终极指南
  • 2026降AI率工具红黑榜:降AIGC网站怎么选?一篇看懂
  • cobalt文档生成工具:自动创建API与用户手册
  • 全链路压测的认知误区与落地前提
  • 手把手教你用FFmpeg+Nginx在Win10上搭建RTSP转RTMP/HLS直播服务器(含完整配置文件和避坑指南)
  • 告别超时噩梦:Shenyu网关全局与局部超时控制完美实践