欢迎光临散文网 会员登陆 & 注册

chatgpt-AIGC-从数学开始

2023-04-11 16:38 作者:ANDM2  | 我要投稿

向量

向量是由n个实数组成的一个n行1列(n*1)或一个1行n列(1*n)的有序数组;

点积

- 向量的点乘,也叫向量的内积、数量积,对两个向量执行点乘运算,就是对这两个向量对应位一一相乘之后求和的操作,点乘的结果是一个标量。


点积几何意义

- 点乘的几何意义是可以用来表征或计算两个向量之间的夹角,以及在b向量在a向量方向上的投影

叉乘

- 两个向量的叉乘,又叫向量积、外积、叉积,叉乘的运算结果是一个向量而不是一个标量。并且两个向量的叉积与这两个向量组成的坐标平面垂直。

叉乘的几何意义

- 在3D图像学中,叉乘的概念非常有用,可以通过两个向量的叉乘,生成第三个垂直于a,b的法向量,从而构建X、Y、Z坐标系。


参考文档

- https://blog.csdn.net/dcrmg/article/details/52416832  (向量点乘(内积)和叉乘(外积、向量积)概念及几何意义解读)


矩阵

特征值和特征向量

- 由于矩阵可以看做是向量的集合,因此一个矩阵(m*n)可以看做是通过n个m维向量,形成的一个向量,因此可以转换为通过特征向量构建一个基本的m维坐标系,通过特征值对这m维向量进行伸缩 ,即归一化 (normal)


svd分解 - 奇异值分解(Singular Value Decomposition,以下简称SVD)

- 将任一矩阵(m*n) 拆解成三个矩阵 U , V ,R,其中U,V是正定矩阵(正定矩阵的逆矩阵=正定矩阵的转置矩阵),通过svd分解,可以达到降维的效果,其中svd分解也是pca (主成分分析(Principal Component Analysis,简称 PCA) 的前置条件 

 


参考文档

- https://zhuanlan.zhihu.com/p/524126772  (从数学的角度浅谈特征值和特征向量的求法)

- https://zhuanlan.zhihu.com/p/31386807 (四)矩阵的特征分解与奇异值分解(SVD))

- https://blog.csdn.net/OrdinaryMatthew/article/details/117948620 (PAC、SVD以及它们的联系之充分数学知识推导)


机器学习的基本概念

张量

- n维矩阵的统称


参考文档

- https://zhuanlan.zhihu.com/p/48982978 (笔记 | 什么是张量(tensor)& 深度学习)


激活函数,损失函数,动量法的原理


参考文档

- https://baijiahao.baidu.com/s?id=1574592152285995 (为了彻底理解深度学习,我们到底需要掌握哪些数学知识呢)


神经网络demo

参考文档

- https://blog.csdn.net/happytofly/article/details/80121851 (如何用70行Java代码实现深度神经网络算法)


chatgpt基本概念

- https://www.cnblogs.com/gczr/p/14693829.html (一文彻底搞懂attention机制)

- https://www.cnblogs.com/gczr/p/16345902.html (深入理解softmax函数)

- https://www.cnblogs.com/gczr/p/16376393.html (深入理解transformer)

- https://www.cnblogs.com/gczr/p/15213833.html (统计学中P值的理解)


chatpgt参数微调 -demo

- https://www.cnblogs.com/zhangxianrong/p/14953162.html (NLP(二十六):如何微调 GPT-2 以生成文本)


论文

- https://zhuanlan.zhihu.com/p/619830415 ([论文笔记] Segment Anything)

- Megatron-LM: Training Multi-Billion Parameter Language Models Using Model Parallelism

- Segment Anything


chatgpt-AIGC-从数学开始的评论 (共 条)

分享到微博请遵守国家法律