萌主天下无敌提示您:看后求收藏(棉花糖小说网www.aaeconomics.com),接着再看更方便。
天才一秒记住本站地址:[]最快更新!无广告!
对于这个神经网络的训练过程,就是要确定这
个参数。
训练的目标可以粗略概括为:对于每一个训练样本,对应的输出无限接近于
,而其它输出无限接近于
。
根据
给出的实验结果,以上述网络结构为基础,在未经过调优的情况下,可以轻松达到
%的正确识别率。而核心代码只有
行!
在采用了深度学习的思路和卷积网络(;
)之后,最终达到了
.
%的正确识别率。而针对
数据集达到的历史最佳成绩是
.
%的识别率,是由
,
,
,
,和
在
年做出的。
考虑到这个数据集里还有一些类似如下这样难以辨认的数字,这个结果是相当惊人的!它已经超越了真正人眼的识别了。
在这个过程中一步步调整权重和偏置参数的值,就必须引入梯度下降算法(
)。
在训练的过程中,我们的神经网络需要有一个实际可行的学习算法,来逐步调整参数。
而最终的目的,是让网络的实际输出与期望输出能够尽量接近。我们需要找到一个表达式来对这种接近程度进行表征。这个表达式被称为代价函数
)
表示一个训练样本,即网络的输入。其实一个
代表
个输入。
(
)表示当输入为
的时候,期望的输出值;而表示当输入为
的时候,实际的输出值。
(
)和都分别代表
个输出值(以数学上的向量来表示)。而它们的差的平方,就表征了实际输出值和期望输出值的接近程度。越接近,这个差值就越小。
是训练样本的数量。假设有
万个训练样本,那么
就是
万。因为是多次训练,所以要除以
对所有训练样本求平均值。
(,
)的表示法,是
看成是网络中所有权重和偏置
的函数。为什么这样看呢?进行训练的时候,输入
是固定的(训练样本),不会变。在认为输入不变的情况下,这个式子就可以看成是和
的函数。那么,式子右边的和
在哪呢?实际上,在里面。
(
)也是固定值,但是和
的函数。
总结来说,
(,
)表征了网络的实际输出值和期望输出值的接近程度。越接近,
(,
)的值就越小。因此,学习的过程就是想办法降低
(,
)的过程,而不管
(,
)的表达形式如何,它是和
的函数,这就变成了一个求函数最小值的最优化问题。