欢迎光临散文网 会员登陆 & 注册

线性代数本质系列(四)非方阵,点积与对偶性

2023-05-05 19:37 作者:人工智能大讲堂  | 我要投稿

向量究竟是什么?

向量的线性组合,基与线性相关

矩阵与线性相关

矩阵乘法与线性变换复合

三维空间中的线性变换

行列式

逆矩阵,列空间,秩与零空间

克莱姆法则

非方阵

点积与对偶性

叉积

以线性变换眼光看叉积

基变换

特征向量与特征值

抽象向量空间

快速计算二阶矩阵特征值

张量,协变与逆变和秩


目录

非方阵

点积与对偶性


非方阵

“在一个小测验里,我让你们去计算一个2*3矩阵的行列式,让我感到非常可笑的是,你们当中竟然有人尝试去做” –佚名


       前面章节我们讨论的线性变换矩阵都是方阵,作用于二维空间的2*2矩阵,输入输出都是2维向量,以及作用于三维空间的的3*3矩阵,输入输出都是三维向量,今天我们就来看一下非方阵的几何意义。


3*2非方阵


    先说结论:非方阵对应的变换,是将输入映射到不同维度的输出。变换后的空间,如果虚拟的网格仍然等间距,且原点不变,那就可以认为非方阵对应的变换仍然是线性变换,如下图所示,二维向量被映射成三维向量。

非方阵对应输入向量维度的变化


其对应的几何意义如下图所示,左侧对应输入的二维向量空间,右侧对应输出的三维向量空间。


用非方阵代表的变换和前面方阵的方法相同,仍然是需要找到变换后的基向量的坐标,如下图所示,然后把基向量变换后的坐标作为矩阵的列。


如上图,该矩阵是个三行两列的非方阵,根据前面秩的概念可知,该矩阵的列空间可以张成过三维空间原点的一个面,所有输出向量都会落在这个面上,虽然如此,但该矩阵仍是满秩,因为列空间的维数与输入空间的维数相同,输入空间维数是2,列空间维数也是2。


总结一下就是一个3*2的矩阵几何意义是:将二维空间映射到三维空间上,该矩阵有两列,代表输入空间有两个基向量,两个基向量就代表是二维的,该矩阵有三行,代表每一个基向量变换后都要用三个独立的分量来表示,三个坐标分量也就是三维坐标,所以符合开头我们讲的该矩阵是二维到三维的变换。

同样,如上图所示,一个2*3的矩阵,该矩阵有三列,代表输入空间有三个基向量,三个基向量代表是三维空间,该矩阵有两行,代表每一个基向量变换后都要用两个独立的坐标分量来表示,也就是二维空间,所以一个2*3的矩阵是从三维到二维的映射。


点积与对偶性

       向量的点积是非常重要且常见的操作,一般会在线性代数课程的一开始就讲解点积,因为理解点积只需要知道向量的概念就够了,我们把它放在这里,大家也不用奇怪,因为只有从线性变换的角度来理解点积才能理解其真正的含义,而线性变换需要前面章节的铺垫,


如上图所示,向量点积的概念就是:将向量相应的坐标配对,然后求乘积,最后将所有结果相加,我们还是从几何的角度来理解向量的点积,如下图所示,两个向量的点积就是一个向量在另一个向量投影长度与另一个向量长度的乘积,投影向量与被投影向量的方向决定了结果的正负,这个属性经常会用来判断两个向量的方向。

方向相同

                                                               

 方向相反

                                                        

除了上述两种情况,还有一种是两个向量垂直,则结果为0,这里还要说明一下,通过投影的方式求点积的过程,与谁向谁投影无关,结果都是一样的,这个可以从几何角度进行证明。

我们前面讨论过非方阵对应的是不同维度的空间变换,例如,将二维空间变换到一维空间:



如下图,在二维空间有一系列等距分布的点,对其施加2维到一维的线性变换,这些点仍然是等距分布在数轴上。

 变换前

                                                        

    变换后

                                           

根据前面所学的知识,这些线性变换也完全由变换后的基向量%0A%5Cbegin%7Bequation*%7D%0A%5Chat%7Bi%7D%0A%5Cend%7Bequation*%7D%0A%5Cbegin%7Bequation*%7D%0A%5Chat%7Bj%7D%0A%5Cend%7Bequation*%7D的位置决定的,只不过这次两个基向量落到了一维的数轴上,同样,如下图所示,我们把%0A%5Cbegin%7Bequation*%7D%0A%5Chat%7Bi%7D%0A%5Cend%7Bequation*%7D%0A%5Cbegin%7Bequation*%7D%0A%5Chat%7Bj%7D%0A%5Cend%7Bequation*%7D的坐标写道矩阵的列中,因为是一维的,所以最终的矩阵是一个1*2的矩阵:[1,-2]




现在有了变换矩阵[1,-2],那让我们看看一个向量%0A%5Cbegin%7Bequation*%7D%0A%5Cbegin%7Bbmatrix%7D%0A4%5C%5C%0A3%0A%5Cend%7Bbmatrix%7D%0A%5Cend%7Bequation*%7D经过变换后的位置,向量%0A%5Cbegin%7Bequation*%7D%0A%5Cbegin%7Bbmatrix%7D%0A4%5C%5C%0A3%0A%5Cend%7Bbmatrix%7D%0A%5Cend%7Bequation*%7D变换后,仍然可以用变换后的基向量来表示:4*i_treanformed+3*j_transformed ,我们已经知道变换矩阵[1,-2],那%0A%5Cbegin%7Bequation*%7D%0A%5Cbegin%7Bbmatrix%7D%0A4%5C%5C%0A3%0A%5Cend%7Bbmatrix%7D%0A%5Cend%7Bequation*%7D经过变换后的坐标为:4*1+3*-2=-2。

 变换前

                                                              

   变换后

                                                            

其实向量点积就是一种特殊的矩阵向量乘法,一个1*2的矩阵与一个二维向量相乘,该1*2矩阵的两个列向量就是变换后基向量的坐标,该矩阵实现二维到一维的变换。

这样1*2矩阵与二维向量就有很好的关联了,将竖着写的向量横着写就变成了矩阵,将横着写的矩阵竖着写就变成了向量,矩阵是一种变换,是一个动词,向量代表是个事物,是一个名词,将空间中向量变换为数轴上的数的线性变换本身和空间中的某个向量本身有着对应关系。

一开始我们通过投影的方式计算点积,那为什么会将点积与投影联系起来呢?这就需要挖掘更深层次的东西:对偶性。

我们假设一条倾斜的一维数轴,在二维空间里,有个向量u落在数轴上,长度为1,我们假设有一个线性变换将二维空间投影到了这个倾斜的数轴上,接下来就是找到变换后的基坐标。

通过几何对称性,我们可以计算出%0A%5Cbegin%7Bequation*%7D%0A%5Chat%7Bi%7D%0A%5Cend%7Bequation*%7D变换后的坐标%0A%5Cbegin%7Bequation*%7D%0A%5Cmu%20_%7Bx%7D%0A%5Cend%7Bequation*%7D

同理,也可以计算出%0A%5Cbegin%7Bequation*%7D%0A%5Chat%7Bj%7D%0A%5Cend%7Bequation*%7D变换后的坐标%0A%5Cbegin%7Bequation*%7D%0A%5Cmu%20_%7By%7D%0A%5Cend%7Bequation*%7D,那么就可以得到变换矩阵%0A%5Cbegin%7Bequation*%7D%0A%5Cbegin%7Bbmatrix%7D%0A%5Cmu%20_%7Bx%7D%20%26%20%5Cmu%20_%7By%7D%0A%5Cend%7Bbmatrix%7D%0A%5Cend%7Bequation*%7D,对于一个未知向量%0A%5Cbegin%7Bequation*%7D%0A%5Cbegin%7Bbmatrix%7D%0Ax%5C%5C%0Ay%0A%5Cend%7Bbmatrix%7D%0A%5Cend%7Bequation*%7D,其经过变换后的坐标为:

可见该未知向量经过线性变换投影到一维数轴上,也就相当于投影到向量u上,其投影长度与u长度的乘积与上面点积形式相同。


看,这就是我们开头说的,向量的点积等于一个向量投影到另一个向量的长度与另一个向量长度的乘积。


线性代数本质系列(四)非方阵,点积与对偶性的评论 (共 条)

分享到微博请遵守国家法律