【官方双语/合集】线性代数的本质 - 系列合集
个人对于相似变换和叉乘的几何意义重点做了补充,欢迎交流
线性变换与矩阵
线性变换:原点不动+网格平行且等距分布
(向量本质表示基向量的线性组合)
矩阵的第一列就是变换后的i-hat,而第二列就是变换后的j-hat,任何向量在经过线性变换后都保持它与i-hat,j-hat原有的数乘+加法关系
所以观察线性变换的本质就是看基向量经过变换后的位置是哪里(也就是从变换的矩阵列向量中得到)
矩阵乘法,即多次线性变换的叠加,欲得两个矩阵作用结果,用右者的每一列(基向量)逐个被左边的矩阵线性变换,得到那之后的新基向量,由此得到最终矩阵的各个列
行列式与叉积
这里也可以用右手定则去理解,朝自己就是+,朝屏幕里就是-这种
对于二维而言:
矩阵对应的行列式determinant(matrix)绝对值表示为线性变换后的图形面积与原坐标系下图形面积之比(原坐标系是标准的i,[1,0],j[0,1])
三维的方向是由右手定则规定正方向的,拓展至更高维,本质上就是hat之间的方位关系
变换后空间的维数-矩阵列
(各个hat的线性集合构成的)空间的维数
零空间:变换后成为零向量的原来一系列向量的集合
行数是指的放在几维空间衡量ta(和矩阵的列空间不同哈,矩阵的列空间是指的基向量能张成的空间,维度小于等于所在的空间)
列是指的基向量的个数
并且列数也表明了原空间的维度
v在w上投影的长度与w长度之积(正负表示二者方向)
向量和空间的转换存在一种对偶关系
和之前基向量的方向定义类似
的叉积公式
矩阵的乘法和向量点乘不是同一回事啊喂
p·变量 = 变量在 p方向的投影与p长度乘积
=det(矩阵) = 变量 在高方向的投影* vw张成的底面面积
那么看到上面的等式,位置一一对应,就可知道,v×w = p这个矢量,且p为vw的公垂线,p的长度为底面面积(vw张成的)
(原始笔记,冗长)
由于行列式表示的就是那个平行六面体的体积,假如以v,w构成的平行四 边形为底,那么x,y,z向量对应的就是斜边,而左边是一个点积的形式,反映的是x,y,z在p上的投影,其实就是平行六面体的高,那么p对应的长度也就是其底面积的值,即v×w
整体思路概括:先定义由 [x,y,z],v,w构成的矩阵的行列式 这一个函数,这个函数线性->可以考虑为一种(3维到1维)线性变换->对偶性竖起来为p->点积的几何意义(投影)->结合行列式几何意义->p即vw叉积
相似变换
可以直接看这里的理解,很清晰
本质上:(该表达借鉴了机器人学)

是把B坐标系下定义的线性变换(也就是M矩阵),给转换为A坐标系下的表达(相当于MB变为MA)
看过程:先把P(A坐标系)通过线性变换转为P(B坐标系),然后施加MB这个期望的线性变换,再用逆线性变换转为P(A坐标系)
(旧有的冗余笔记)
(我们讨论的所有基向量坐标都是基于1*1方格来说的)线性变换矩阵的列是变换后的基向量坐标,而被乘的向量,就是“被误解的”原坐标系下向量
基变换另一种理解:线性变换前后向量在不同基坐标系下的坐标是不变的,那么向量p从A坐标系变换到B坐标系,想用A描述B下p的坐标,那就用A->B的变换矩阵作用于p(在B下)的坐标
用“误解”解释更说得通
分解步骤理解“变换描述者”的语言
A^-1 M A转移作用,M表示上帝视角的线性变换,A是用来切换描述基的
先变换描述基,将别人的向量坐标用自己的坐标系描述,再在自己的描述下进行线性变换,再用前面加粗体的逆变换重新用别人的坐标系表示
特征向量即在线性变换后保持仍在其原方向(所在直线)上的向量
特征值就是它变换后的长度与之前之比(含方向)
如果只是把v向量延长λ倍,那其实等效于其所有hat都伸长为λ倍,以此获得矩阵λE(单位矩阵)
特征方程含义:将非零向量(即特征向量)压缩为零向量
不满秩->行列式为0->就可以得到λ
对于对角阵而言,特征向量就是每一列的基向量(自身在缩放),特征值为对角元素值
(这里表达仍然借鉴了机器人学)
比如,要求MA的n次幂,那么可以用相似改变这个M的描述坐标系为B,而这个MB正好是对角阵(因为R的列向量正好为它的特征向量,对角阵很好求n次幂)

那么再左右都作n次幂,右边有矩阵*其逆抵消,最后就可以得到下面的结果,对角阵MB的n次幂就直接让里面每个数n次方即可,那么再做一次相似变换回去就得到MA的n次幂

(下面为旧的笔记)
(1)使用A-1MA这种转移作用,其中M是由A坐标系下的特征向量组成(此时此特征向量不一定是基向量,而这种操作也意味着将特征向量作为新基),那么得到的就是一个对角阵,利用对角阵做n次幂十分方便
(2)当然得保证特征向量能张成全空间,才可以使得矩阵对角化实现
保持加法&数乘运算
行列式可以理解为这个矩阵中列向量张成的area的广义体积(二维就是面积)
u = 【x,y】
u --A--> v
i_hat(【1,0】) --A--> i'_hat(A的首列)
j_hat(【0,1】) --A--> j'_hat(A的第二列)
如果要求Au = v的y,可以先求i_hat和u张成的面积,即为y,再看作用A变换之后的面积,(分母),即为A的i'_hat(首列),与v构成的面积,(分子),那y就得到了,x同理,高维同理
不改变点积->应用于解方程->变换前后与基向量的点积结果分别保持一致
Ax=v中|A| = 0的解释:
因为A行列式为0,那意味着降维,也就是基向量至少有2个互相成比例关系,表达维度之外的量v无法被表达,之内的就可能存在有至少一个向量会没用(因为与ta成比例的那个可以干他的活)
这里是相似变换!

