1和神经元j之间的权重。bj代表神经元的偏移量,f(.)为激活函数。设第j个神经元的净输入值为sj:则有以下……可证f(.)是单调递增函数,且是有界函数……
bp神经网络算法由正向传播和误差反向传播两个过程组成。正向传播时,由输入层到隐含层再到输出层,每层神经元只影响下一层的神经元的状态……反向传播是根据误差函数、利用梯度下降法进行的,所以反向传播中最重要的是误差函数……”
陈默一边计算,一边阐述,不用说试卷上留有的空白根本不够写的,一面考卷就被写满了。好在之前陈默写前面的题目的时候,没有怎么用草稿纸。两张空白的a3的稿纸便被他拿来当答题卡了。
“激活函数的主要作用是提高神经网络的非线性建模能力,因为涉及非线性建模,缺少激活函数,神经网络只能表达线性映射,即使有再多的隐藏层,整个神经网络跟单层神经网络是等价的。加入激活函数,神经网络才具备了分层的非线性映射学习能力。bp算法的优化方法是基于梯度的,激活函数必须是处处可导的……
代价函数是用来衡量预测值与目标实际值之间的关系,两者越接近,预测效果越好,反之……”
不得不说,陈默的写字速度还是一如既往的快,甚至因为这次赶时间,更加加快了速度,以往他不着急的时候,手是很轻的,哪怕写得很快,周边也太能听的清声音。这次可能是有些赶时间,加上周围确实都挺安静的,陈默这刷刷刷的声音,就显得有些明显了。
其他人也都在草稿纸上写写画画,但是多少都带点暴躁,所以划拉的声音都是一阵一阵的,只有陈默这边独独显得有点不同,这边书写的声音一直有,而且莎莎莎的声音太稳定,不知道的还以为是在写作文呢。
周围算半天被题目卡住的同学此时满脑子都是疑惑,不知道身边这人在干啥,抬头看了眼时间,考试才过去不到二十分钟,这次考试的难度真的不是一般的大,不少能力强的,现在连试卷的第一面都没有翻过去。
这哥们不会是被李老师这次的试题给逼疯了吧?
这“莎莎莎”的干啥呢?
从刚刚就听到这边一直都书写的声音。他们一开始没觉得什么,还一味卷子后面有题目需要大量书写,结果写了半天也没看到这样的题啊。还有人怀疑的往后翻了翻试卷,找了半天,确实没有看到需要大量书写的题。基本上都是计算偏多。
甚至有不少懵逼的同学,因为坐在陈默身