深度网络层次太多后,信号和梯度越来越小,深层难以训练。被称作梯度弥散。也有可能越来越大,又被称作梯度爆炸。
batchnormalization,可以把过大或过小的信号进行归一化。有效避免上述问题,使得深度学习网络更容易训练。所以效果好。:)
优化文件,删除多余的构造历史,把batch render设置勾选auto,或者根据机器配置设置合理的参数 查看更多答案>>
用户登录
还没有账号?立即注册
用户注册
投稿取消
文章分类: |
|
还能输入300字
上传中....