zl程序教程

迁移学习

  • GitHub收获1W星标《迁移学习导论》重新整理升级

    GitHub收获1W星标《迁移学习导论》重新整理升级

    点击 机器学习算法与Python学习 ,选择加星标 精彩内容不迷路 相信不少小伙伴最初都是通过王晋东老师知乎上的《小王爱迁移》系列文章或在GitHub上开源发布的《迁移学习简明手册》来学习的!这一系列的材料帮助了很多读者可以快速入门迁移学习,也获得了大家的好评(GitHub收获1W星标)。之后,作者将这本手册全面更新,写就了《迁移学习导论》一书,这本书更是受到众多读者的喜爱,收获如潮好评!作者们

    日期 2023-06-12 10:48:40     
  • 【硬核书】迁移学习多智能体强化学习系统

    【硬核书】迁移学习多智能体强化学习系统

    来源:专知本文为书籍介绍,建议阅读5分钟这本书对广大读者有价值,并有望促进社区间的新对话和该地区的新发展。复制学习解决顺序决策任务是困难的。人类花了数年时间,基本上以一种随机的方式探索环境,直到他们能够推理,解决困难的任务,并与他人合作实现一个共同的目标。人工智能智能体在这方面和人类很像。强化学习(RL)是一种众所周知的通过与环境的交互来训练自主智能体的技术。遗憾的是,学习过程具有很高的样本复杂性

    日期 2023-06-12 10:48:40     
  • 【AAAI2023】图上的非独立同分布迁移学习

    【AAAI2023】图上的非独立同分布迁移学习

    迁移学习是指将知识或信息从相关的源领域转移到目标领域。然而,现有的大多数迁移学习理论和算法都集中在IID任务上,其中源/目标样本假设是独立的和同分布的。对于非IID任务的知识可迁移性的理论研究很少,例如跨网络挖掘。为了弥合差距,在本文中,我们提出了严格的泛化边界和算法,用于从源图到目标图的跨网络迁移学习。其关键思想是从Weisfeiler-Lehman图同构检验的角度表征跨网络知识可转移性。为此,

    日期 2023-06-12 10:48:40     
  • NC | Spatial-ID:通过迁移学习和空间嵌入进行空间高分辨转录组数据的细胞注释

    NC | Spatial-ID:通过迁移学习和空间嵌入进行空间高分辨转录组数据的细胞注释

    腾讯 AI Lab 联合深圳华大生命科学研究院团队,开发了一种基于自监督学习的空间转录组(spatially resolved transcriptomics,SRT)细胞注释方法Spatial-ID(SPATIAL cell type IDentifification),它集成了迁移学习和空间嵌入策略。该方法通过迁移学习从已有的单细胞转录组数据集迁移单细胞表达谱知识。该方法通过嵌入空间信息,利用

    日期 2023-06-12 10:48:40     
  • NC | Spatial-ID:通过迁移学习和空间嵌入进行空间高分辨转录组数据的细胞注释

    NC | Spatial-ID:通过迁移学习和空间嵌入进行空间高分辨转录组数据的细胞注释

    腾讯 AI Lab 联合深圳华大生命科学研究院团队,开发了一种基于自监督学习的空间转录组(spatially resolved transcriptomics,SRT)细胞注释方法Spatial-ID(SPATIAL cell type IDentifification),它集成了迁移学习和空间嵌入策略。该方法通过迁移学习从已有的单细胞转录组数据集迁移单细胞表达谱知识。该方法通过嵌入空间信息,利用

    日期 2023-06-12 10:48:40     
  • PyTorch-24h  06_迁移学习

    PyTorch-24h 06_迁移学习

    06. PyTorch Transfer Learning您可能会想,是否已经存在一个性能良好的模型来解决我们的问题? 在深度学习的世界里,答案通常为是。我们将了解如何使用称为 迁移学习(transfer learning) 的强大技术。什么是迁移学习?迁移学习允许我们将训练好的模型用于我们自己的问题。例如,我们可以将在ImageNet (数百万张图像的数据集)上训练好的模型,应用于自己的食物分类

    日期 2023-06-12 10:48:40     
  • 基于mobileNet实现狗的品种分类(迁移学习)

    基于mobileNet实现狗的品种分类(迁移学习)

    基于mobileNet实现狗的品种分类一、数据集介绍二、实战 2.1 数据预处理 2.1.1 第1步:对labels标签的预处理2.1.2 第2步:对图片数据的预处理2.2 迁移学习、模型微调2.3 模型训练、验证、测试2.4 模型预测2.5 模型保存一、数据集介绍数据集下载地址:https://www.kaggle.com/datasets/carlosmiao/dogbreedidentifi

    日期 2023-06-12 10:48:40     
  • 数据不够怎么训练深度学习模型?不妨试试迁移学习

    数据不够怎么训练深度学习模型?不妨试试迁移学习

    深度学习大牛吴恩达曾经说过:做AI研究就像造宇宙飞船,除了充足的燃料之外,强劲的引擎也是必不可少的。假如燃料不足,则飞船就无法进入预定轨道。而引擎不够强劲,飞船甚至不能升空。类比于AI,深度学习模型就好像引擎,海量的训练数据就好像燃料,这两者对于AI而言同样缺一不可。 随着深度学习技术在机器翻译、策略游戏和自动驾驶等领域的广泛应用和流行,阻碍该技术进一步推广的一个普遍性难题也日渐凸显:训练模型所

    日期 2023-06-12 10:48:40     
  • keras系列︱迁移学习:利用InceptionV3进行fine-tuning及预测、完美案例(五)

    keras系列︱迁移学习:利用InceptionV3进行fine-tuning及预测、完美案例(五)

    引自:http://blog.csdn.net/sinat_26917383/article/details/72982230   之前在博客《keras系列︱图像多分类训练与利用bottleneck features进行微调(三)》一直在倒腾VGG16的fine-tuning,然后因为其中的Flatten层一直没有真的实现最后一个模块的fine-tuning。 看到git

    日期 2023-06-12 10:48:40     
  • paddlepaddle 15 迁移学习-图像分类实战二 基于paddle1(paddlehub1)api实现迁移学习

    paddlepaddle 15 迁移学习-图像分类实战二 基于paddle1(paddlehub1)api实现迁移学习

    本案例基于paddle1.7实现,以aistudio的比赛数据为实操数据,基于paddlehub实现迁移学习。特别说明,该操作仅适用于比赛,对于科研无任何实际帮助,因为在paddlehub库的约束下,用户可以操作的东西是在太少了。不过幸运的是,paddlehub里面有及其丰富的预训练模型。通过使用其中的resnet50_vd_animals模型可以轻松将精

    日期 2023-06-12 10:48:40     
  • DL之VGG16:基于VGG16(Keras)利用Knifey-Spoony数据集对网络架构进行迁移学习

    DL之VGG16:基于VGG16(Keras)利用Knifey-Spoony数据集对网络架构进行迁移学习

    DL之VGG16:基于VGG16(Keras)利用Knifey-Spoony数据集对网络架构迁移学习       目录 数据集 输出结果 设计思路 1、基模型 2、思路导图 核心代码 更多输出           数据集 Dataset之Knifey-Spoony:Knifey-Spoon

    日期 2023-06-12 10:48:40     
  • 迁移学习(PAT)《Pairwise Adversarial Training for Unsupervised Class-imbalanced Domain Adaptation》

    迁移学习(PAT)《Pairwise Adversarial Training for Unsupervised Class-imbalanced Domain Adaptation》

    论文信息 论文标题:Pairwise Adversarial Training for Unsupervised Class-imbalanced Domain Adaptation论文作者:Weili Shi, Ronghang Zhu, Sheng Li论文来源:KDD 2022论文地址:download 论文代码:download视屏讲解:click 1 摘要   提出问题:类不

    日期 2023-06-12 10:48:40     
  • 异常检测 | 迁移学习《Anomaly Detection in IR Images of PV Modules using Supervised Contrastive Learning》

    异常检测 | 迁移学习《Anomaly Detection in IR Images of PV Modules using Supervised Contrastive Learning》

    论文信息 论文标题:Anomaly Detection in IR Images of PV Modules using Supervised Contrastive Learning论文作者:Lukas Bommes, Mathis Hoffmann, Claudia Buerhop-Lutz, Tobias Pickel, Jens Hauch, Christoph Brabec, Andr

    日期 2023-06-12 10:48:40     
  • 迁移学习《Asymmetric Tri-training for Unsupervised Domain Adaptation》

    迁移学习《Asymmetric Tri-training for Unsupervised Domain Adaptation》

    论文信息 论文标题:Asymmetric Tri-training for Unsupervised Domain Adaptation论文作者:Kuniaki Saito, Y. Ushiku, T. Harada论文来源:27 February 2017——ICML论文地址:download 论文代码:download视屏讲解:click 1 介绍   简单

    日期 2023-06-12 10:48:40     
  • 迁移学习(CDA)《CDA:Contrastive-adversarial Domain Adaptation  》

    迁移学习(CDA)《CDA:Contrastive-adversarial Domain Adaptation 》

    论文信息 论文标题:CDA:Contrastive-adversarial Domain Adaptation论文作者:Nishant Yadav, M. Alam, Ahmed K. Farahat, Dipanjan Ghosh, Chetan Gupta, A. Ganguly论文来源:2023 ArXiv论文地址:download 论文代码:download视屏讲解:

    日期 2023-06-12 10:48:40     
  • 迁移学习(EBGAN)《Energy-based Generative Adversarial Network》

    迁移学习(EBGAN)《Energy-based Generative Adversarial Network》

    论文信息 论文标题:Energy-based Generative Adversarial Network论文作者:J. Zhao, Michaël Mathieu, Yann LeCun论文来源:2017 aRxiv论文地址:download 论文代码:download引用次数: 1 前言   特点: 基于能量模型; 生成对抗

    日期 2023-06-12 10:48:40     
  • 迁移学习(EDA)《Energy-based Domain Adaption with Active Learning for Emerging Misinformation Detection》

    迁移学习(EDA)《Energy-based Domain Adaption with Active Learning for Emerging Misinformation Detection》

    论文信息 论文标题:Energy-based Domain Adaption with Active Learning for Emerging Misinformation Detection论文作者:Kyumin Lee; Guanyi Mou; Scott Sievert论文来源:论文地址:download 论文代码:download 1 介绍   基于能量

    日期 2023-06-12 10:48:40     
  • 迁移学习(HDAN)《Heuristic Domain Adaptation》(已复现迁移)

    迁移学习(HDAN)《Heuristic Domain Adaptation》(已复现迁移)

    论文信息 论文标题:Heuristic Domain Adaptation论文作者:Shuhao Cui, Xuan Jin, Shuhui Wang, Yuan He, Qingming Huang论文来源:NeurIPS 2020论文地址:download 论文代码:download 1 介绍   名词解释: domain-invariant repre

    日期 2023-06-12 10:48:40     
  • 虚假新闻检测-迁移学习(CADM)《Unsupervised Domain Adaptation for COVID-19 Information Service with Contrastive Adversarial Domain Mixup》

    虚假新闻检测-迁移学习(CADM)《Unsupervised Domain Adaptation for COVID-19 Information Service with Contrastive Adversarial Domain Mixup》

    论文信息 论文标题:Unsupervised Domain Adaptation for COVID-19 Information Service with Contrastive Adversarial Domain Mixup论文作者:Huimin Zeng, Zhenrui Yue, Ziyi Kou, Lanyu Shang, Yang Zhang, Dong Wang论文来源:aRx

    日期 2023-06-12 10:48:40     
  • 迁移学习——使用Tensorflow和VGG16预训模型进行预测

    迁移学习——使用Tensorflow和VGG16预训模型进行预测

    使用Tensorflow和VGG16预训模型进行预测 from:https://zhuanlan.zhihu.com/p/28997549   fast.ai的入门教程中使用了kaggle: dogs vs cats作为例子来让大家入门Computer Vision。不过并未应用到最近很火的Tensorflow。Keras虽然可以调用Tensorflow作为backend,不过既然

    日期 2023-06-12 10:48:40     
  • 数据不够怎么训练深度学习模型?不妨试试迁移学习 ——重用神经网络的结构2

    数据不够怎么训练深度学习模型?不妨试试迁移学习 ——重用神经网络的结构2

    数据不够怎么训练深度学习模型?不妨试试迁移学习 本质就是这个图!pretrained model就是你截取的部分神经网络模型(迁移学习),而nanonet就是你自己加入的网络层。 随着深度学习技术在机器翻译、策略游戏和自动驾驶等领域的广泛应用和流行,阻碍该技术进一步推广的一个普遍性难题也日渐凸显:训练模型所必须的海量数据难以获取。 深度学习大牛吴恩达曾经说过:做AI研究就像造宇宙飞船,

    日期 2023-06-12 10:48:40     
  • 基于深度学习和迁移学习的识花实践——利用 VGG16 的深度网络结构中的五轮卷积网络层和池化层,对每张图片得到一个 4096 维的特征向量,然后我们直接用这个特征向量替代原来的图片,再加若干层全连接的神经网络,对花朵数据集进行训练(属于模型迁移)

    基于深度学习和迁移学习的识花实践——利用 VGG16 的深度网络结构中的五轮卷积网络层和池化层,对每张图片得到一个 4096 维的特征向量,然后我们直接用这个特征向量替代原来的图片,再加若干层全连接的神经网络,对花朵数据集进行训练(属于模型迁移)

    基于深度学习和迁移学习的识花实践(转)   深度学习是人工智能领域近年来最火热的话题之一,但是对于个人来说,以往想要玩转深度学习除了要具备高超的编程技巧,还需要有海量的数据和强劲的硬件。不过 TensorFlow 和 Keras 等框架的出现大大降低了编程的复杂度,而迁移学习的思想也允许我们利用现有的模型加上少量数据和训练时间,取得不俗的效果。 这篇文章将示范如何利用迁移学习训练一

    日期 2023-06-12 10:48:40     
  • 迁移学习

    迁移学习

    转自:https://www.zhihu.com/question/41979241/answer/247421889 1. 前言   迁移学习(Transfer Learning,TL)对于人类来说,就是掌握举一反三的学习能力。比如我们学会骑自行车后,学骑摩托车就很简单了;在学会打羽毛球之后,再学打网球也就没那么难了。对于计算机而言,所谓迁移学习,就是能让现有的模型算法稍加调整即可

    日期 2023-06-12 10:48:40     
  • pytorch 16 迁移学习核心技巧·从模型加载到按需初始化模块权重,再到各layer分组设置学习率

    pytorch 16 迁移学习核心技巧·从模型加载到按需初始化模块权重,再到各layer分组设置学习率

    实现加载模型任意权重,自动跳过不匹配的layer(name不匹配,权重shape不匹配),该操作通常用在迁移学习模型加载中。 实现对模型中不同moudle甚至不同name的layer进行不同方式的初始化,该操作通常用在迁移学习模型初始化中。 实现对模型中不同的部分设置不同的学习率(支持冻结某些layer),该操作通常用在迁移学习模型训练阶段中。

    日期 2023-06-12 10:48:40     
  • 深度学习3 迁移学习分批次保存特征并训练全连接

    深度学习3 迁移学习分批次保存特征并训练全连接

    1、基于h5py批量保存特征,并使用全局平均池化缩减特征尺寸,减小对内存的需求 ​ from tensorflow.keras.preprocessing.image import ImageDataGenerator from tensorflow.keras import applications,Model from t

    日期 2023-06-12 10:48:40     
  • Lecture7:随机梯度下降算法问题及解决、dropout正则化、学习率的选择、迁移学习

    Lecture7:随机梯度下降算法问题及解决、dropout正则化、学习率的选择、迁移学习

    目录 1.随机梯度下降算法问题及解决 1.1 随机梯度下降算法SGD的问题 1.2 具有动量的梯度下降算法SGD+Momentum 1.3 Nesterov加速梯度法 1.4 AdaGrad 1.5 RMSProp 1.6 融合!Adam算法 2. 学习率的选取 3. 正则化 3.1 dropout正则化 4

    日期 2023-06-12 10:48:40     
  • 迁移学习zz

    迁移学习zz

    一.迁移学习的概述迁移学习是指将一个在某领域完成学习任务的网络应用到新的领域来进行学习任务。基于卷积网络实现迁移学习对于已经训练完毕的网络模型来说,通常该网络模型的前几层学习到的是通用特征,随着网络层次的加深,更深次的网络层更偏重于学习特定的特征,因此可将通用特征迁移到其他领域。对于深度卷积网络来说,经过预训练的网络模型可以实现网络结构与参数信息的分离,在保证网络结构一致的前提下,便可以利用经过

    日期 2023-06-12 10:48:40     
  • [DeeplearningAI笔记]卷积神经网络2.9-2.10迁移学习与数据增强

    [DeeplearningAI笔记]卷积神经网络2.9-2.10迁移学习与数据增强

    4.2深度卷积网络 觉得有用的话,欢迎一起讨论相互学习~ 吴恩达老师课程原地址 2.9迁移学习 迁移学习的基础知识已经介绍过,本篇博文将介绍提高的部分。 提高迁移学习的速度 可以将迁移学习模型冻结的部分看做为一个函数,因为每次都要使用这个冻结模型的输出值来训练自己的网络层,这样从加载模型到预训练模型都会耗费一定的时间。 为此,可以将目标训练集通过冻结模型的输出保存到本地,作为新的训练数据

    日期 2023-06-12 10:48:40     
  • [DeeplearningAI笔记]第三章2.7-2.8多任务学习/迁移学习

    [DeeplearningAI笔记]第三章2.7-2.8多任务学习/迁移学习

    [DeeplearningAI笔记]第三章2.7-2.8多任务学习/迁移学习 觉得有用的话,欢迎一起讨论相互学习~ 吴恩达老师课程原地址 2.7 迁移学习 Transfer Learninig 神经网络可以从一个任务中习得知识,并将这些知识应用到另一个独立的任务中.例如:你已经训练好一个能够识别猫的系统,你利用这些知识或者这些知识的部分去完成更好的 阅读X射线扫描图. 这就是所谓的--

    日期 2023-06-12 10:48:40     
  • 2019年上半年收集到的人工智能迁移学习干货文章

    2019年上半年收集到的人工智能迁移学习干货文章

    2019年上半年收集到的人工智能迁移学习干货文章     迁移学习全面指南:概念、项目实战、优势、挑战 迁移学习:该做的和不该做的事 深度学习不得不会的迁移学习Transfer Learning 谷歌最新的PlaNet对强化学习以及迁移学习的意义及启发 迁移学习时间序列分类 如何提高强化学习的可靠性? 迁移学习之最大分类器差异的无监督域适应 吴恩达深度学习笔记(67)-迁移学

    日期 2023-06-12 10:48:40     
  • 使用MindSpore_hub  进行  加载模型用于推理或迁移学习

    使用MindSpore_hub 进行 加载模型用于推理或迁移学习

    从官方资料: https://www.mindspore.cn/tutorial/training/zh-CN/r1.2/use/save_model.html?highlight=save_checkpoint     在模型训练过程中,可以添加检查点(CheckPoint)用于保存模型的参数,以便执行推理及再训练使用。如果想继续在不同硬件平台上做推理,可通过网络和Chec

    日期 2023-06-12 10:48:40