BP人工神经网络的收敛是什么?

来源:学生作业帮助网 编辑:六六作业网 时间:2024/11/22 17:36:25
BP人工神经网络的收敛是什么?BP人工神经网络的收敛是什么?BP人工神经网络的收敛是什么?收敛和迭代算法有关.反向传播算法是定义一个误差er(往往是输出结果与预想结果之间的某个范数),然后求出满足误差

BP人工神经网络的收敛是什么?
BP人工神经网络的收敛是什么?

BP人工神经网络的收敛是什么?
收敛和迭代算法有关.
反向传播算法是定义一个误差er(往往是输出结果与预想结果之间的某个范数),然后求出满足误差极小的权向量.如果把误差看成一个连续函数(泛函)的话,求对权向量各分量的偏导为0即可,但是实际上它是离散的,所以我们需要用迭代来求最小梯度.
如果是新定义算法的话理论上的收敛要证明,可以证明它在迭代次数趋近无穷的时候等于某一解,也可以证明它满足李普希兹条件(就是带有完备范数和李普希兹常数的那个),这种情形下我们叫做收敛,要是用已有算法或者干脆就是BP算法的时候不需要你证明.理论上不收敛的情况是这样,当迭代次数趋近无穷的时候,权向量的解不唯一.
实际上的收敛是这样,给定一个最大迭代次数n,一个误差限erl,反向传播算法应该很容易找,我不往上写了,每一步权值修正都会使er减小,直观的看就是权向量的分量沿着梯度减小的方向在前进,虽然理论上样本足够大并且n趋于无穷的时候会收敛,但是实际上有可能出现当迭代到第n次,误差er依然大于误差限erl的情况,也就是说我们没有解出来满足要求的权向量,所以网络训练失败,叫做不收敛.当然,也可以使用梯度限来作为迭代终止的条件,这种情况下不收敛就是梯度在迭代了n次以后没有小于某一值,从而没有求出满足要求的权向量;收敛就是求出了满足梯度限的权向量.

神经网络收敛有收敛结果和收敛性两种
收敛结果就是经过神经网络计算后产生的结果 一般来说是 1 或者 0
收敛性可以理解经过神经网络计算后能不能产生1 或 0 或者 产生1 或 0 的概率是多少 用概率来衡量神经网络的收敛性