梯度消失

梯度消失是深度学习中常见的问题,指在反向传播过程中,梯度随着网络层数增加而指数级减小,导致深层网络参数难以更新。通常发生在使用SigmoidTanh等激活函数的神经网络中,会严重影响模型训练效果。 (本内容由AI生成,仅供参考。)
· 5 次浏览
相关条目
评论
用户12346: 简单讲讲