当前位置: 首页 > news >正文

【读书笔记】Introduction to Linear Algebra | 第 8 章:线性变换

线性代数的本质不仅是解方程,更是研究线性变换(Linear Transformations)。这篇文章将深入探讨什么是线性变换,它如何与矩阵建立起一一对应的关系,以及我们如何通过改变基来简化对世界的描述。

1. 线性变换是什么 (Q1)

变换即函数 变换本质上就是一个函数,或者叫映射。它描述了一种输入与输出的对应关系(input-output relation),我们可以用符号 $T(\cdot)$ 来表示。

可视化的“运动” “变换”这个词暗示了我们可以通过某种方式来可视化它。最直观的理解方式是将变换看作是一种“运动”:空间中的网格线发生了移动、旋转或拉伸。 * 参考资源:3Blue1Brown - 线性变换的本质

核心性质:线性 一个变换被称为“线性”的,当且仅当它满足以下两个条件: 1. 齐次性:$T(cv) = cT(v)$ (直线变换后仍为直线,原点固定) 2. 可加性:$T(v+w) = T(v) + T(w)$ (网格线保持平行且等距分布)

这与信号与系统中的“线性时不变(LTI)系统”中的线性概念是同义的。线性变换保证了操作是可分解、可叠加的。

2. 线性变换和矩阵的联系 (Q2)

线性变换和矩阵之间存在着天然的一一对应关系。这种联系仿佛在告诉我们:自然世界的语言是数学

定理

在确定了输入空间的基 $V$ 和输出空间的基 $W$ 之后,每一个线性变换 $T(\cdot)$ 都能够用一个矩阵 $A$ 完全表示;反之,这个矩阵 $A$ 也可以完全表示这个线性变换。

证明过程

已知线性变换 $T(\cdot)$,对于任意输入向量 $v \in C(V)$,都存在输出 $w = T(v) \in C(W)$。

第一步:确立基与坐标 设定输入空间基为列向量组 $V = [v_1, v_2, \dots, v_n]$,输出空间基为 $W = [w_1, w_2, \dots, w_m]$。 那么输入/输出向量可以用坐标(列向量)表示: * $v = V c = c_1 v_1 + c_2 v_2 + \dots + c_n v_n$ * $w = W d = w_1 d_1 + w_2 d_2 + \dots + w_m d_m$

第二步:应用变换 将变换 $T$ 作用于 $v$: $$ w = T(v) = T(V c) = T(V) c $$ 其中 $T(V) = [T(v_1), T(v_2), \dots, T(v_n)]$ 是变换后的基向量组。

第三步:在输出空间中表达 由于 $T(V)$ 的每一列都在输出空间 $C(W)$ 中,它们一定可以由基 $W$ 线性表示。因此,存在唯一的矩阵 $A$,使得: $$ T(V) = [T(v_1) \dots T(v_n)] = [W a_1 \dots W a_n] = W A $$

第四步:推导坐标关系 将上式代入 $W d = T(V) c$,得到: $$ W d = (W A) c \implies W (A c - d) = 0 $$ 因为 $W$ 的各列线性无关(基的性质),所以括号内必须为零: $$ A c = d $$

结论

这表明,输入向量 $v$ 在基 $V$ 下的坐标 $c$,和输出向量 $w$ 在基 $W$ 下的坐标 $d$ 之间存在矩阵乘法关系。

矩阵 $A$ 的物理含义:它是输入空间基 $V$ 经过变换 $T$ 后得到的向量组 $T(V)$,在输出空间基 $W$ 下的坐标矩阵。

即在确定基之后,有且仅有一个矩阵 $A$,可以完全表示 $T(v)=w$ 的线性变换: $$ Ac = d \quad (\text{其中 } WA = T(V)) $$

3. 基变换与矩阵的简化 (Q3)

线性变换在不同的基下,表现形式的复杂度不同。我们可以通过选择好的基,让矩阵 $A$ 变得非常简单,实现解耦。

变换公式

在输入空间基变为 $B_{in}$,输出空间基变为 $B_{out}$ 后: * 原坐标 $c$ 与新坐标 $c'$ 的关系:$c = B_{in} c'$ * 原坐标 $d$ 与新坐标 $d'$ 的关系:$d = B_{out} d'$

代入 $A c = d$: $$ A (B_{in} c') = B_{out} d' \implies B_{out}^{-1} A B_{in} c' = d' $$

这意味着,对于新坐标来说,变换矩阵从 $A$ 变成了: $$ A' = B_{out}^{-1} A B_{in} $$

我们的目标就是找到合适的 $B_{in}$ 和 $B_{out}$,使得 $A'$ 成为对角矩阵 $\Lambda$(即在每个维度上仅仅是缩放)。

经典案例

  1. 特征值分解

    • 适用于方阵 $A$,且有 $n$ 个线性无关的特征向量。
    • 取 $B_{in} = B_{out} = X$(特征向量矩阵)。
    • 结果:$X^{-1} A X = \Lambda$。
  2. 奇异值分解 (SVD)

    • 适用于任意矩阵。
    • 取 $B_{in} = V$(右奇异向量),$B_{out} = U$(左奇异向量)。
    • 结果:$U^T A V = \Sigma$。
  3. Jordan 标准型

    • 当矩阵无法对角化时的最简形式。

补充思考

  • 相似矩阵:若输入空间和输出空间是同一个空间($A$ 为方阵),且我们使用同一个基变换($B_{in} = B_{out}$),则 $A' = B^{-1} A B$。此时 $A$ 和 $A'$ 称为相似矩阵,它们代表同一个线性变换。
  • 计算代价与固定基:找出特征向量或奇异向量作为基虽然能完美解耦,但计算代价可能很大。在实际应用(如信号处理)中,我们可以直接尝试预先定义好的固定基,比如小波基傅里叶基,这些基在很多自然变换下已经能提供良好的解耦效果。
  • 特殊的基变换:如果原始变换矩阵是 $I$(单位矩阵),输入基不变,只改变输出基,这通常被称为基变换矩阵或坐标变换,记为 $F x = y$。

结语:为什么要将线性变换与矩阵联系?

用矩阵表示线性变换,不仅仅是符号的对应,更是为了: 1. 定量描述:将抽象的空间变换转化为具体的数值运算。 2. 便于计算:利用计算机强大的矩阵运算能力来模拟和预测现实世界的变换。 3. 研究本质:透过矩阵的属性(特征值、奇异值)看透变换的本质(伸缩、旋转、投影)。

正如我们所见,线性代数架起了抽象几何思维与具体代数运算之间的桥梁。自然世界的语言,的确是数学。

http://www.jsqmd.com/news/471051/

相关文章:

  • 突破百度网盘限速壁垒:PDown高速下载工具深度评测
  • 鹰眼YOLOv8实战:智能会议室人数统计,AI帮你自动分析空间利用率
  • Youtu-2B响应截断?max_tokens参数调整实战
  • VSCode编写Markdown
  • 北京丰宝斋:回收名家字画无套路,免费上门,当场结算,藏家变现超安心 - 品牌排行榜单
  • Flux Sea Studio 效果展示:Transformer架构下的超写实海景作品集
  • 科学驭时,智赴前程——职大教育破解兴安盟高中生时间管理困局 - 企业推荐官【官方】
  • Linux容器基石:LXC核心概念与实践指南
  • ChatGPT从入门到精通PDF:AI辅助开发实战指南
  • 救命神器AI论文写作软件 千笔ai写作 VS WPS AI 研究生必备
  • “Missing CLIPVision model“错误解析:从根源修复到预防策略
  • ai赋能边缘设备,快马平台辅助生成stm32语音识别项目代码
  • STM32H7 ADC共用寄存器原理与多ADC同步工程实践
  • Tao-8k模型与ComfyUI可视化工作流结合:复杂任务编排实践
  • LDO环路稳定性:从极点分布到ESR补偿的实战解析
  • AIGlasses_for_navigation环境部署:Ubuntu+Python3.10+Supervisor服务配置全解析
  • 闭眼入!继续教育专属AI论文工具 —— 千笔·专业论文写作工具
  • Qwen3-Reranker-0.6B效果展示:汽车维修手册故障码-解决方案精准排序案例
  • FireRedASR-AED-L案例展示:多格式音频一键转文字,识别效果超预期
  • 显卡风扇智能控制:突破转速限制的完整指南
  • [Java] this()的调用机制
  • 基于果汁氧化特性,计算榨汁后保鲜时间,推荐抗氧化处理与饮用时机。
  • 收藏!小白程序员快速入门大模型与智能体核心概念解析
  • 【独家首发】基于eBPF的MCP连接器实时流量行为监控方案——0侵入拦截SQL注入与横向移动尝试
  • AutoGen Studio入门指南:10分钟快速搭建Java开发助手智能体
  • 初识大模型:LLM、Chatbot、Agent三阶分层解析,助你轻松入门收藏必备!
  • 语音识别快速入门:基于Whisper镜像的部署与简单应用教程
  • 数据可视化工具零基础入门指南:从准备到进阶的完整路径
  • Cogito 3B部署教程:Ollama API对接FastAPI,打造企业级AI服务接口
  • 2026河南商标代理公司测评:诚标网凭什么成为行业首选?(附避坑指南) - 中媒介