当前位置: 首页 > news >正文

[模式识别-从入门到入土] 拓展-似然

[模式识别-从入门到入土] 拓展-似然

知乎:https://www.zhihu.com/people/byzh_rc

CSDN:https://blog.csdn.net/qq_54636039

注:本文仅对所述内容做了框架性引导,具体细节可查询其余相关资料or源码

参考文章:各方资料

基本公式

P ( A , B ) = P ( A ∣ B ) P ( B ) = P ( B ∣ A ) P ( A ) P ( A ∣ B ) = P ( A ) P ( B ) P ( B ∣ A ) P ( B ) = ∑ i = 1 n P ( B ∣ A i ) P ( A i ) P ( A ∣ B ) = P ( A ) P ( B ∣ A ) ∑ i = 1 n P ( A i ) P ( B ∣ A i ) P(A,B)=P(A|B)P(B)=P(B|A)P(A) \\ P(A|B)= \frac{P(A)}{P(B)} P(B|A) \\ P(B)=\sum_{i=1}^n P(B|A_i)P(A_i) \\ P(A \mid B) = \frac{P(A)\, P(B \mid A)}{\sum_{i=1}^{n} P(A_i)\, P(B \mid A_i)}P(A,B)=P(AB)P(B)=P(BA)P(A)P(AB)=P(B)P(A)P(BA)P(B)=i=1nP(BAi)P(Ai)P(AB)=i=1nP(Ai)P(BAi)P(A)P(BA)

  • 先验概率P ( ω i ) P(\omega_i)P(ωi)
    不考虑任何观测时,属于类别ω i \omega_iωi的概率

  • 后验概率P ( ω i ∣ x ) P(\omega_i|x)P(ωix)
    已知样本x xx后,属于类别ω i \omega_iωi的概率

  • 类条件概率P ( x ∣ ω i ) P(x|\omega_i)P(xωi)
    在类别ω i \omega_iωi条件下,特征x xx出现的概率密度

类条件概率P ( x ∣ ω i ) P(x|\omega_i)P(xωi)

给定样本类别ω i \omega_iωi的情况下,样本特征x xx出现的概率密度
->在类别ω \omegaω下,样本会长成什么样
->P ( x ∣ ω i ) P(x|\omega_i)P(xωi)

变量(参数):x xx
已知(观测值):ω i \omega_iωi

似然L ( ω i ∣ x ) L(\omega_i|x)L(ωix)(Likelihood)

给定样本特征x xx的情况下,样本属于某一类别ω i \omega_iωi的 “可能性度量”
->对这个已经发生的样本x = x 0 x=x_0x=x0,哪个ω \omegaω更“支持”它
->L ( 待优化的参数 ∣ 观测值 ) = L ( ω i ∣ x ) L(\text{待优化的参数}|\text{观测值})=L(\omega_i|x)L(待优化的参数观测值)=L(ωix)

变量(参数):ω i \omega_iωi
已知(观测值):x xx

似然函数L ( ω i ∣ x ) L(\omega_i|x)L(ωix)被定义为P ( x ∣ ω i ) P(x|\omega_i)P(xωi)x xx固定时的函数
L ( ω i ∣ x ) = P ( x ∣ ω i ) , (已观测到x) L(\omega_i|x)=P(x|\omega_i), \quad \text{(已观测到x)}L(ωix)=P(xωi),(已观测到x)
似然不是“概率”,而是“把同一个函数换了看法”:
∑ ω i L ( ω i ∣ x ) = 无需 1 \sum_{\omega_i} L(\omega_i|x) \stackrel{\text{无需}}{=} 1ωiL(ωix)=无需1
似然是后验概率的正比项:
P ( ω i ∣ x ) ∝ L ( ω i ∣ x ) P ( ω i ) P(\omega_i|x) \propto \mathbf{L(\omega_i|x)} P(\omega_i)P(ωix)L(ωi∣x)P(ωi)

为何可以丢弃P ( x ) P(x)P(x):
因为x xx在该概念下, 是常数
-> 而这是概率论的角度不能做到的

如果不引入“似然”这个视角:

  • 无法说“我在对参数做优化”
  • 只能说“这是一个概率公式”,但不知道要最大化谁

-> 找一组参数,让已观测数据“最有可能被生成”

概率论回答的是“随机变量取值的分布”
统计学习要做的是“在已观测数据固定的前提下,反推未知参数”

世界生成数据(概率论) ω ──▶ x 用 P(x|ω) 现实观察数据(统计学习) x ──▶ ω 用 L(ω|x)

证据P ( x ) P(x)P(x)

$P(x) $ 衡量的是:“这个模型整体上,对已观测数据x xx的解释有多好”

视角核心问题用到的量
模型评估模型能否解释数据P ( x ) P(x)P(x)

证据P ( x ) P(x)P(x)是 “模型在不区分类别的情况下生成样本x xx的总体概率”

在 Bayes 公式中负责归一化后验分布,在参数或类别比较中是常数,因此可以被省略

P ( x ) P(x)P(x)在模型选择中至关重要

http://www.jsqmd.com/news/159706/

相关文章:

  • 2025 硬核实战:手动部署 Yoast SEO 并搞定 Google 站点地图,解决“无法抓取”全攻略
  • PyTorch模型量化Quantization入门教程
  • Git下载PyTorch项目并运行:结合PyTorch-CUDA-v2.7镜像快速启动
  • windows电脑如何修改或同步系统时间 - Fear-is
  • 国产防脱洗发水排行榜前十名:2025正品推荐,防脱效果最好的品牌盘点 - 博客万
  • 解锁数字化培训新系统,全平台无缝对接的企业学习考试解决方案
  • GitHub Sponsor支持PyTorch开源开发者
  • 低成本私有化部署:吱吱即时通讯软件适用中小企业
  • Anaconda环境隔离避免PyTorch版本冲突
  • 老人护骨必备!2025十大维生素d3品牌!老人维生素d3怎么选?预防骨质疏松品牌推荐 - 博客万
  • 安全私有化部署的培训考试平台源码推荐
  • 治程的故事
  • PyTorch学习率调度器Scheduler实战
  • 基于AI与数字孪生的保健茶片C2M柔性智能制造平台
  • Multisim 下载安装教程Multisim 14.3超详细图文教程
  • Markdown mermaid语法画PyTorch网络拓扑图
  • Docker镜像源优化指南:提升PyTorch-CUDA-v2.7拉取速度
  • 麦角硫因哪个牌子的效果好?2025全球十大麦角硫因排名,高效指标,口服抗衰用户实证推荐 - 博客万
  • Go语言中高效读取数据(详解io包的ReadAll函数用法)
  • 2025年成都青白江为明学校:深度解析其师资力量与教育成效 - 品牌推荐
  • GitHub托管PyTorch项目最佳实践:结合镜像提升协作效率
  • 槲皮素哪个牌子的比较好?槲皮素品牌前十名,温和养护不刺激,肺部养护更贴心 - 博客万
  • Jupyter Notebook版本控制集成Git
  • DiskInfo预警阈值设置:主动防御数据风险
  • 如何在Linux系统上安装PyTorch并启用GPU支持?详细步骤分享
  • 2025年成都青白江为明学校:权威解析其教育理念与育人实践路径 - 品牌推荐
  • 选对抗衰产品不花冤枉钱!真实用户反馈抗老效果看得见,华以健康园改善肌肤松弛 - 博客万
  • C++基本数据类型详解(零基础掌握C++核心数据类型)
  • 2025年成都青白江为明学校:权威解析其办学理念与育人实践 - 品牌推荐
  • 2025年终连锁酒店推荐:结合用户评价与投资模型的多维度指南 - 品牌推荐