深度学习预备知识opencv笔记
深度学习预备知识
特征
样本
数据集
监督学习算法:有标准答案,受答案(标签)监控
无监督学习算法:无标准答案
半监督学习:是前两种的结合方法,一部分有标签,一部分没有标签,有标签的对无标签的打标签,就变成了有标签的样本
强化学习:比较火热,会和环境不断交互,对结果进行评判,进行的好奖励,不好惩罚
凹凸函数:为了引出损失函数,来更好的优化
凸集:连接任意两点,线都在集合里
凹集:连接任意两点,线有一部分在外面
凸函数:连接函数两个点,他的值比线高
凹函数:连接函数两个点,他的值比线低
凸优化的定义:
- 条件一:约束条件为凸集
- 条件二:目标函数为凸集。
非凸优化问题转化为凸优化问题的方法:
- 修改目标函数
- 抛弃一些约束条件
损失函数:
神经网络中使用的代价函数被称作为损失函数
顺势函数衡量了评分函数的预测与正式样本标签的吻合度
Loss的值都会设置为和吻合程度负相关。如果算法公式是正相关,定义损失函数时候加负号,调整为负相关。
交叉熵损失函数
梯度下降
- 批量梯度下降(BGD):使用所有数据,但是当样本数量过多,更新速度会很低
- 随机梯度下降(SGD):每次更新会只考虑一个样本点,但很有可能只达到局部最优
- 小批量梯度下降(MBGD):解决了上面两种,每次只用一部分来更新
学习率:根据误差梯度调整权重值的系数
人工神经网络
神经网络介绍和神经元
生物神经网络
人工神经网络简称神经网络ANN
是指模仿人脑结构及其功能的信息处理系统
神经元
1 | 线性函数+激活函数 |
要考虑
拓扑结构:如何连接
激活规则:
学习算法:如何训练数据
拓扑结构分为:
- 前馈网络:一个方向进行传播,没有反向,下一层的输入就是上一层的输出
- 反馈网络:经典的RNN,接收上一层的输出,也可以接收自己的数据,有更强的记忆能力
- 图网络:定义在图结构的一个数据网络,节点可以有向也可以无向,是前馈与反馈的范化
感知机
1957年 美国 Frank Rossenblatt提出了感知机
可以用来接收多个信号,输出一个信号
感知器的计算方法
激活函数
损失函数:即期望使误分类的所有样本,到超平面的距离只和最小
使用方法:
随机梯度下降
小批量梯度下降
感知机选择的是随机梯度下降,这意味着我们每次仅仅需要使用一个误分类点来更新梯度
更新原则
如果预测准确,则权重不进行更新,否则,增加权重,使其更趋向于正确的类别
感知机步骤
XOR问题
激活函数
sigmoid
单调连续,求导容易
输出有界,网络比较收敛,
远离中心点区域0 ,容易产生梯度消失
tanh
随机梯度下降,从而降低迭代次数
远离中心点区域倒数趋于0
ReLU
常用
修正线性单元
比较容易死亡
不够平滑,在回归问题就不够平滑
有效解决了梯度消失问题
softmax
是将一个k维的任意实数向量映射成另一个k维的实数向量
激活函数设计需考虑的因素
- 非线性
- 连续可微性
- 有界性
- 单调性
- 平滑性