人工智能学习
人工智能
机器学习跟深度学习关系:(主要对深度学习研究)
深度学习是包含的机器学习中,其中用到机器学习的某方面知识,但不是全部,机器学习是指一个确定的函数给到机器,深度学习是类似小孩,给数据叫小孩进行处理,得出的结果,告诉他是错误还是正确,让进一步修改。
卷积 卷积核(过滤器)卷积是指一个操作,是一种处理方法,提取特征,可以对图片进行处理操作(如边间检测,横边检测,竖边检测,还有锐化操作)。可以把对这些操作具体为卷积核(过滤器)。
1 0 -1
1 0 -1
1 0 -1
其中1,0,-1为权重,过滤器有着固定的权重。
卷积工作过程(已知)
卷积神经网络

卷积神经网络包括卷积层和池化层以及全连接层构成,其中卷积神经网络主要是构建过滤器。卷积层包括很多过滤,一般过滤器和输入的深度相同,(例如对图片处理大多是5*5*3,高一般为3,因为图片一般都只有3个颜色通道,红黄蓝,也就是这个3)。池化层减少数据,简化过程,(例如最大池化和平均池化)


全连接层是指把经过卷积层和池化层提取的特征,进行比对产生结果。
损失函数
产生的结果和预测值还是有差距,损失函数可以计算其预测值和真实值的差别,实现预测值与真实值的误差最小化。这个寻找最优模型参数的方法即为优化算法。
优化算法
梯度 梯度下降
梯度为函数在一个点变化的向量,最大梯度为在这个点变化最大的一个值(例子:


最大导数就是1+22 然后根号)
梯度方向就是这个在这个点增长最快的方向,参数变化沿着这个反方即曾为梯度下降,就是相当于在一个山顶,一直沿着最陡的地方向下,如果上面不是反方向就是向上了
反向传播
反向传播算法目前是神经网络得以不断更新以至于让损失函数达到最小值的关键算法。是一种与最优化方法(如梯度下降法)结合使用的,用来训练人工神经网络的常见方法。
它的基本思想为:
(1)先计算每一层的状态和激活值,直到最后一层(即信号是前向传播的);
(2)计算每一层的误差,误差的计算过程是从最后一层向前推进的(即误差是反向传播的);
(3)计算每个神经元连接权重的梯度;
(4)根据梯度下降法则更新参数(目标是误差变小)。
迭代以上步骤,直到满足停止准则(比如相邻两次迭代的误差的差别很小)。