迁移学习(CLDA)《CLDA: Contrastive Learning for Semi-Supervised Domain Adaptation》
论文信息
论文标题:CLDA: Contrastive Learning for Semi-Supervised Domain Adaptation
论文作者:Ankit Singh
论文来源:NeurIPS 2021
论文地址:download
论文代码:download
视屏讲解:click
1 简介
提出问题:半监督导致来自标记源和目标样本的监督只能确保部分跨域特征对齐,导致目标域的对齐和未对齐子分布形成域内差异;
解决办法:
-
- 提出基于质心的对比学习框架;
- 提出基于类级的实例对比学习框架;
评价:牛马.................
2 方法
2.1 整体框架
2.2 源域监督训练
源域监督损失:
$\mathcal{L}_{\text {sup }}=-\sum_{k=1}^{K}\left(y^{i}\right)_{k} \log \left(\mathcal { F } \left(\mathcal{G}\left(\left(x_{l}^{i}\right)\right)_{k}\right.\right.$
2.3 域间对比对齐
基于 $\text{mini-batch}$ 的源域质心(类级):
$C_{k}^{s}=\frac{\sum_{i=1}^{i=B} \mathbb{1}_{\left\{y_{i}^{s}=k\right\}} \mathcal{F}\left(\mathcal{G}\left(x_{i}^{s}\right)\right)}{\sum_{i=1}^{i=B} \mathbb{1}_{\left\{y_{i}^{s}=k\right\}}}$
动量更新源域质心:
$C_{k}^{s}=\rho\left(C_{k}^{s}\right)_{s t e p}+(1-\rho)\left(C_{k}^{s}\right)_{s t e p-1}$
无标签目标域样本的伪标签:
$\hat{y_{i}^{t}}=\operatorname{argmax}\left(\left(\mathcal{F}\left(\mathcal{G}\left(x_{i}^{t}\right)\right)\right)\right.$
域间对比对齐(类级):
$\mathcal{L}_{c l u}\left(C_{i}^{t}, C_{i}^{s}\right)=-\log \frac{h\left(C_{i}^{t}, C_{i}^{s}\right)}{h\left(C_{i}^{t}, C_{i}^{s}\right)+\sum_{\substack{r=1 \\ q \in\{s, t\}}}^{K} \mathbb{1}_{\{r \neq i\}} h\left(C_{i}^{t}, C_{r}^{q}\right)}$
其中:
$h(\mathbf{u}, \mathbf{v})=\exp \left(\frac{\mathbf{u}^{\top} \mathbf{v}}{\|\mathbf{u}\|_{2}\|\mathbf{v}\|_{2}} / \tau\right)$
2.4 实例对比对齐
强数据增强:
$\tilde{x}_{i}^{t}=\psi\left(x_{i}^{t}\right)$
实例对比损失:
$\mathcal{L}_{i n s}\left(\tilde{x}_{i}^{t}, x_{i}^{t}\right)=-\log \frac{h\left(\mathcal{F}\left(\mathcal{G}\left(\tilde{x}_{i}^{t}\right), \mathcal{F}\left(\mathcal{G}\left(x_{i}^{t}\right)\right)\right)\right.}{\sum_{r=1}^{B} h\left(\mathcal{F}\left(\mathcal{G}\left(\tilde{x}_{i}^{t}\right)\right), \mathcal{F}\left(\mathcal{G}\left(x_{r}^{t}\right)\right)\right)+\sum_{r=1}^{B} \mathbb{1}_{\{r \neq i\}} h\left(\mathcal{F}\left(\mathcal{G}\left(\tilde{x}_{i}^{t}\right)\right), \mathcal{F}\left(\mathcal{G}\left(\tilde{x}_{r}^{t}\right)\right)\right)}$
2.5 训练目标
$\mathcal{L}_{\text {tot }}=\mathcal{L}_{\text {sup }}+\alpha * \mathcal{L}_{\text {clu }}+\beta * \mathcal{L}_{\text {ins }}$
3 总结
略
相关文章
- 将数据库从Oracle迁移到SQL Server
- MongoDB迁移方案-冷备份+增量备份恢复--跨机房迁移
- PHP扩展迁移为兼容PHP7记录
- 复杂场景,从OpenTSDB迁移到TDengine的实践
- paddlepaddle 16 迁移学习-图像分类实战三 基于paddle2(paddlehub2)api实现静态图的基本使用
- paddlepaddle 7 面向语义分割的迁移学习
- 将您的基于 Accelerator 的 SAP Commerce Cloud Storefront 迁移到 Spartacus Storefront
- 【Pytorch深度学习实战】(12)神经风格迁移(Neural Style Transfer)
- 迁移学习(PAT)《Pairwise Adversarial Training for Unsupervised Class-imbalanced Domain Adaptation》
- 迁移学习(COAL)《Generalized Domain Adaptation with Covariate and Label Shift CO-ALignment》
- 迁移学习《Pseudo-Label : The Simple and Efficient Semi-Supervised Learning Method for Deep Neural Networks》
- 迁移学习(DAOD)《Refined Pseudo labeling for Source-free Domain Adaptive Object Detection》
- 迁移学习(PCL)《PCL: Proxy-based Contrastive Learning for Domain Generalization》
- 迁移学习(EBGAN)《Energy-based Generative Adversarial Network》
- 迁移学习(EADA)《Active Learning for Domain Adaptation: An Energy-Based Approach》【已复现迁移】
- 迁移学习(Deep CORAL)《Deep CORAL: Correlation Alignment for Deep Domain Adaptation》【已复现迁移】
- 迁移学习(JDDA) 《Joint domain alignment and discriminative feature learning for unsupervised deep domain adaptation》
- 数据不够怎么训练深度学习模型?不妨试试迁移学习 ——重用神经网络的结构2
- 风格迁移0-01:stylegan-源码及数据资源下载
- Oracle 逻辑备份(数据迁移)
- TensorFlow 从入门到精通(15)—— 迁移学习和猫狗大战(上)更新ing
- pytorch 16 迁移学习核心技巧·从模型加载到按需初始化模块权重,再到各layer分组设置学习率
- Pytorch 2 迁移学习 图像数据集分类