当前位置: 首页 > news >正文

矩阵树定理简记

你就把 * 当作一个扔进去数据吐出来结果的黑箱,怎么运行的不重要,只要把黑箱的结构记住就行了。

——某国集大神如是说。

其实是被证明击败了。证明什么的以后有空再说吧。

基本定义

邻接矩阵 \(A\)

不带权的时候,\(A_{i,j}\) 即为 \(i\) 连向 \(j\) 的边数,无向边拆成两个有向边。

如果带权的话 \(A_{i,j}\) 就是 \(i\) 连向 \(j\) 的所有边权和。

度数矩阵 \(D\)

\(i\ne j\) 时,\(D_{i,j}=0\)\(D_{i,i}\) 就是点 \(i\) 的度数。

如果是有向图,则拆做入度矩阵 \(D^{in}\) 和出度矩阵 \(D^{out}\)

带权的话就是相应边的边权和。

Laplace 矩阵 / Kirchhoff 矩阵

这两是一个东西。

对于无向图,\(L=D-A\)。对于有向图,\(L^{in}=D^{in}-A\)\(L^{out}=D^{out}-A\)

矩阵树定理

用于计数一个图的相应类别生成树个数,或者所有相应类别生成树的权重之和。定义生成树的权重为其上所有边权重之积。

不难发现前者实际上就是每条边边权视作 \(1\) 的结果。我们记图 \(G\) 的这个值为 \(w(G)\)

公式部分

无向图

对于任意 \(k\in[1,n]\cap Z\),有:

\[w(G)=\det L(G)_{[n]\setminus\{k\},[n]\setminus\{k\}} \]

也就是 \(G\) 的 Laplace 矩阵 \(L(G)\) 行列式关于 \(L(G)_{k,k}\) 的余子式的值。再通俗点也就是 \(L(G)\) 删除第 \(k\) 行列剩下的矩阵的行列式的值。

有向图

与无向图不同的是,这次选定的 \(k\) 必须是根节点。不难想到无向图之所有任选 \(k\) 是因为所有点都可以是根节点。

对于外向树,有:

\[w^{out}(G)=\det L^{in}(G)_{[n]\setminus\{k\},[n]\setminus\{k\}} \]

对于内向树,有:

\[w^{in}(G)=\det L^{out}(G)_{[n]\setminus\{k\},[n]\setminus\{k\}} \]

http://www.jsqmd.com/news/149564/

相关文章:

  • 当学术写作遇上AI协作者:书匠策如何悄然重塑论文写作的“静默生产力
  • 零售行业客户画像构建:TensorFlow实战教学
  • 如何为TensorFlow镜像中的模型添加输入验证机制
  • 多种调度模式下光储电站经济性最优储能容量配置探索
  • 联邦学习进阶:TensorFlow镜像实现跨机构协作建模
  • 当科研写作遇上智能协作者:书匠策AI如何悄然重塑你的期刊论文创作流
  • 高效掌握DeepSeek的7大核心技巧
  • 如何参与TensorFlow镜像的国际化翻译项目
  • 从零开始:TTS文字转语音技术的高效实现指南
  • 网络安全行业真实前景有那么好吗?现在入行还来得及吗?
  • 如何将规则引擎与TensorFlow镜像中的模型协同工作
  • 移动端AI实现路径:TensorFlow Lite集成指南
  • path.join
  • git 操作清单
  • 数据驱动 vs 关键字驱动:在不同业务场景下的抉择
  • 组织线下Meetup:推广TensorFlow镜像本地用户组
  • 学长亲荐8个AI论文软件,助你搞定本科生论文格式!
  • 如何在TensorFlow镜像中实现BEV特征提取
  • 【一文讲明】在网络安全护网中,溯源是什么?
  • 使用LIME解释TensorFlow镜像中图像分类决策过程
  • 学长亲荐10个AI论文软件,继续教育学生轻松搞定论文!
  • IronPDF for .NET在桌面应用程序中重新组织 PDF
  • 使用官方TensorFlow镜像,一键启动深度学习任务
  • 模型逆向攻击防御:TensorFlow镜像的安全加固措施
  • Spring WebFlux与SpringMVC 对比讲解
  • 如何防止他人窃取你在TensorFlow镜像中训练的模型
  • 如何申报基于TensorFlow镜像的AI项目科研经费
  • 高校合作计划:将TensorFlow镜像引入计算机课程教学
  • 表格结构识别:TensorFlow镜像解析PDF中的数据
  • 手写汉字识别:基于TensorFlow镜像的CNN-LSTM架构