【机器学习每日一问07】Batch Normalization
2023-04-18 14:49:20 时间
目的:
解决internal covariate shift。internal covariate shift会带来什么问题
1. 网络需要不停调整来适应输入数据分布的变化,导致网络学习速度的降低。每一次参数迭代更新后,上一层网络的输出数据经过这一层网络计算后,数据的分布会发生变化,为下一层网络的学习带来困难(神经网络本来就是要学习数据的分布,要是分布一直在变,学习就很难了)
2. 网络的训练过程容易陷入梯度饱和区,减缓网络收敛速度。例如sigmoid,tanh激活函数,很容易使得模型训练陷入梯度饱和区。
算法流程:
对于神经网络的第 l 层,每个mini-batch有m 个样本
Normalization操作我们虽然缓解了ICS问题,让每一层网络的输入数据分布都变得稳定。但是使得底层网络学习到的参数信息丢失,所以转变为学习参数
和
优点:
1. BN使得网络中每层输入数据的分布相对稳定,加速模型学习速度,更快收敛
2. 允许网络使用饱和性激活函数(例如sigmoid,tanh等),缓解梯度消失问题
3. BN使得模型对网络中的参数不那么敏感,简化调参过程,使得网络学习更加稳定
相关文章
- EasyCVR对接华为iVS订阅摄像机和用户变更请求接口介绍
- 精选 | 腾讯云CDN内容加速场景有哪些?
- 模块化网络防止基于模型的多任务强化学习中的灾难性干扰
- 用搜索和注意力学习稳健的调度方法
- 用于多变量时间序列异常检测的学习图神经网络
- 助力政企自动化自然生长,华为WeAutomate RPA是怎么做到的?
- 使用腾讯轻量云搭建Fiora聊天室
- TSRC安全测试规范
- 云计算“功守道”
- 助力成本优化,腾讯全场景在离线混部系统Caelus正式开源
- Flink 利器:开源平台 StreamX 简介
- 腾讯云实践 | 一图揭秘腾讯碳中和?解决方案
- 深度学习中的轻量级网络架构总结与代码实现
- 信息系统项目管理师(高项复习笔记三)
- Adobe国际认证让科技赋能时尚
- c++该怎么学习(面试吃土记)
- 面试官问发布订阅模式是在问什么?
- 面试官:请实现一个通用函数把 callback 转成 promise
- 空中悬停、翻滚转身、成功着陆,我用强化学习「回收」了SpaceX的火箭
- 中山大学林倞解读视觉语义理解新趋势:从表达学习到知识及因果融合