当前位置: 首页 > news >正文

IT数学基础番外1--手算梯度下降(TODO)

1. 最简模型:只有 1 个神经元

输入:x输出:ypred​真实值:ytrue​

公式:ypred​=w⋅x+b

要学的东西:

  • w = 权重(weight)
  • b = 偏置(bias)

目标:让预测值和真实值尽量一样,也就是损失最小。我们用最简单的损失:均方误差Loss=21​(ypred​−ytrue​)2


2. 给定一组数据

我们就用一组数据算:

  • x=1
  • ytrue​=2

随便给个初始值:

  • w=0.5
  • b=0.5

3. 第一步:前向传播(算预测)

ypred​=0.5⋅1+0.5=1.0

真实值是 2,差得远。现在要用梯度下降改 w 和 b


4. 关键:求梯度(导数)

梯度下降的核心:对 Loss 求 w 和 b 的偏导,知道往哪改。

推导一下(很简单):∂w∂Loss​=(ypred​−ytrue​)⋅x∂b∂Loss​=ypred​−ytrue​

代入数值:ypred​−ytrue​=1−2=−1

∂w∂Loss​=−1⋅1=−1∂b∂Loss​=−1


5. 梯度下降更新公式

wnew​=wold​−η⋅∂w∂Loss​bnew​=bold​−η⋅∂b∂Loss​

η 是学习率,我们取 0.5。


6. 开始更新

wnew​=0.5−0.5(−1)=0.5+0.5=1.0bnew​=0.5−0.5(−1)=0.5+0.5=1.0


7. 再看预测

ypred​=1.0⋅1+1.0=2.0

直接等于真实值!一次就完美收敛。


8. 放到深度学习里,本质一模一样

深度学习只是:

  • 不是 1 个神经元,是几百万个
  • 不是 1 层,是几十层、上百层
  • 不是线性,加了激活函数
  • 不是 1 组数据,是几万、几百万组数据

梯度下降干的事完全没变:

不停地对所有 w、b求导然后一点点更新让 Loss 越来越小


超级总结(你彻底懂了)

  • 普通方程梯度下降:求x
  • 深度学习梯度下降:求所有 w 和 b
  • 本质:都是求参数,让损失最小

你现在已经懂了深度学习最核心的原理

http://www.jsqmd.com/news/406113/

相关文章:

  • AI专著撰写神器来袭!快速、精准,轻松打造专业学术巨著
  • 从ResNet到mHC:DeepSeek重构残差连接,额外开销仅6.7%,附复现代码 - AI
  • Java、Python、HTML 前端后端如何配合?零基础也能看懂的毕设组合方案
  • AI教材编写秘籍揭秘!低查重的AI教材生成工具,让写作效率飙升
  • AI写专著新趋势!热门工具大盘点,提升专著写作质量和速度
  • Codex体验
  • 突破传统!AI写专著工具大比拼,为你找出最佳写作帮手
  • 【记录】AT_abc406模拟赛
  • AI写论文有诀窍!这4款AI论文生成工具,助你快速完成论文!
  • 龙哥量化:通达信涨停选股公式庄家涨停后暴力洗盘策略
  • AI教材写作必备!高效工具助力,轻松打造低查重优质教材!
  • 1. 模型微调概览与硬件选取
  • 低查重不是梦!AI教材生成工具带你开启高效创作之旅!
  • AI写专著必备!专业工具大揭秘,开启高效专著撰写之旅
  • AI写论文好帮手!4款AI论文写作工具,快速搞定职称论文!
  • PINN神经网络介绍
  • AI专著生成工具哪家强?详细测评为你选出最佳写作帮手
  • 掌握AI教材写作技巧,配合低查重秘籍完成优质教材编写
  • 用Python和Pygame从零打造植物大战僵尸:完整技术解析
  • 大模型入门必看:收藏这份指南,小白也能轻松玩转AI(Seedance 2.0、OpenClaw等前沿应用)
  • 推荐系统大数据架构:从离线训练到实时推荐的演进
  • 解锁AI写专著密码!精选工具助力,打造高质量学术专著
  • 提示工程配置中心设计:突破常规的方法
  • Dependency inversion principle(DIP依赖倒置原则)
  • 2026AI大模型学习路线,只看这一篇就够了!大模型应用开发就这么简单!
  • AI教材编写新利器!低查重率保障,高效产出优质教材!
  • 工具落地的核心,是“为人服务”
  • R 环境安装指南
  • ADC的SOC转换
  • 比赛策略