[[ item.title ]]
首页
登录
梯度消失
梯度消失是
深度学习
中常见的问题,指在
反向传播
过程中,梯度随着网络层数增加而指数级减小,导致深层网络参数难以更新。通常发生在使用
Sigmoid
或
Tanh
等激活函数的
神经网络
中,会严重影响模型训练效果。
(本内容由AI生成,仅供参考。)
·
5
次浏览
相关条目
Sigmoid函数
评论
登录
用户12346:
简单讲讲