[双语人译|带测试]吴恩达2022机器学习专项课程(一)监督学习
2023-04-26 21:41 作者:siyan_Fang | 我要投稿

第一部分 监督学习 (监督学习分为回归和分类)
回归:拟合数据(直线,曲线)做预测
第一周 线性回归模型、代价函数、梯度下降函算法
线性回归函数 f=wx+b
代价函数 J=误差平方之和的平均
梯度下降 w-=α * J对w的偏导 b-=α * J对b的偏导
批量梯度下降(batch) 每一次计算梯度都考虑所有样本
题外话:正规方程法 (normal equation)局限性,但可以一步到位求出w,b,不迭代
第二周 多元线性回归
向量化
分类:划分区域,做辨别
第三周 逻辑回归(即分类)
引入sigmoid函数,将数据全部映射到(0, 1)
考虑什么时候是边界?wx+b=0时。更复杂一些,也许是w1x+w2xx+b=0
提出loss,改进代价函数J
重新求偏导解出dw和db
梯度下降
条件维度越多,分类越精准,也越容易导致过拟合
缓解过拟合:
1.增加数据数量
2.减少特征个数(第二部分自动选择合适的特征)
3.(本节重点)正则化:拟合的同时让x前系数尽可能小