【Transformer】开源 | 牛津大学&字节跳动提出TransMix,将基于Mixup的方法推向增强ViTs
2023-04-18 15:03:44 时间
论文地址: http://arxiv.org/pdf/2111.09833v1.pdf
来源: Johns Hopkins University,University of Oxford,字节跳动
论文名称:TransMix: Attend to Mix for Vision Transformers
原文作者:Jie-Neng Chen
内容提要
在训练过程中,基于Mixup的增强对于模型的泛化是有效的,特别是对于视觉Transformers (ViTs),因为它们很容易过拟合。然而,之前的基于Mixup的方法都有一个潜在的先验知识,即目标的线性插值比例应该与输入插值的比例保持一致。这可能会导致一个奇怪的现象,有时由于增强过程中的随机过程,混合图像中没有有效的对象,但在标签空间中仍然有响应。为了弥补输入空间和标签空间之间的差距,我们提出了TransMix,它基于ViTs的注意地图混合标签。如果相应的输入图像被注意图加权得更高,那么标签的置信度就会更大。TransMix非常简单,只需几行代码就可以实现,而无需向基于ViT的模型引入任何额外参数和FLOPs。实验结果表明,该方法在ImageNet分类上可以在尺度上持续改进各种基于ViT的模型。在ImageNet上使用TransMix进行预训练后,基于ViT的模型在语义分割、目标检测和实例分割方面表现出更好的可移植性。TransMix在4个不同的基准测试中也表现得更加健壮。
主要框架及实验结果
声明:文章来自于网络,仅用于学习分享,版权归原作者所有,侵权请加上文微信联系删除。
相关文章
- 【技术种草】cdn+轻量服务器+hugo=让博客“云原生”一下
- CLB运维&运营最佳实践 ---访问日志大洞察
- vnc方式登陆服务器
- 轻松学排序算法:眼睛直观感受几种常用排序算法
- 十二个经典的大数据项目
- 为什么使用 CDN 内容分发网络?
- 大数据——大数据默认端口号列表
- Weld 1.1.5.Final,JSR-299 的框架
- JavaFX 2012:彻底开源
- 提升as3程序性能的十大要点
- 通过凸面几何学进行独立于边际的在线多类学习
- 利用行动影响的规律性和部分已知的模型进行离线强化学习
- ModelLight:基于模型的交通信号控制的元强化学习
- 浅谈Visual Source Safe项目分支
- 基于先验知识的递归卡尔曼滤波的代理人联合状态和输入估计
- 结合网络结构和非线性恢复来提高声誉评估的性能
- 最佳实践丨云开发CloudBase多环境管理实践
- TimeVAE:用于生成多变量时间序列的变异自动编码器
- 具有线性阈值激活的神经网络:结构和算法
- 内网渗透之横向移动 -- 从域外向域内进行密码喷洒攻击