理解机器学习 - 系列总结
大家好! 理解机器学习这个系列到今天就告一段落了,就在这里做一下小结和展望

我从十月开始到现在上传了二十个视频,完成了预定的计划,也就是UML这本书的一学期教学大纲,基本没有跳过任何证明。我的目标是理论推导的部分尽量简明,算法的来龙去脉尽量清楚,让更多人能从这本出色的教材中学到理论机器学习的核心内容。机器学习对我来说也是一个新的学科,做视频的过程其实是一个学习的过程,所以特别感谢大家的支持和鼓励。如果有疏漏的地方,也请大家包涵。
正如作者所说,UML的目标读者群是高年级的理工科本科生或者研究生,也就是假设了读者已经知道概率论,线性代数,微积分。我在做视频的时候尽量做到逻辑自洽,但有读者完全没有学过上述内容也想看视频/书的话,可以考虑先学习下面的课题(搜一下B站上各种公开课,选一个愉悦度高的):
微积分:理解多元Taylor公式(包括梯度,Hessian,极限)
线性代数:理解线性变换(包括但不限于向量,矩阵,子空间,投影,正交变换,谱分解,奇异值分解)
概率:理解条件概率和几个基本不等式(e.g.Markov) ,基本组合(查数)技巧

本系列的最后一个视频是生成模型。关于下一个系列,我的一个初步计划是就是做一个生成模型的专题, AIGC的热潮下这个方向非常热闹,从stable diffusion到chatGPT,无论是AI作画还是大语言模型的问答能力都已经强到了匪夷所思的地步。这也是概率味道最浓的机器学习方向,符合我的个人审美。
一个新的系列需要好的筹划。我在休息几周过后会开始阅读相关文献,如果屏幕前的你有好的建议,也不妨给我留言。
再见!