加载部分神经网络预训练参数后改写网络的方法
2023-09-14 09:05:38 时间
对于pytorch直接
checkpoint = 'D:/Speech-Transformer/BEST_checkpoint_85.tar'
checkpoint = torch.load(checkpoint, map_location='cpu')
model = checkpoint['model']
model.encoder.requires_grad_=False
model.decoder=decoder
model.to(device)
class model():
def __init__(self):
self.txt="初始值"
def forward(self):
print("原函数")
print("初始值",self.txt)
def df(self):
# 这个函数魔改前向函数
print(self.txt,"我是替代函数")
net=model()
# 这里可以加载预训练模型
net.forward()
# 任意改变初始化定义
net.forward=df
net.forward(net)
if __name__ == '__main__':
pass
相关文章
- 使用预训练模型,在Jetson NANO上预测公交车到站时间
- 使用自己的数据集训练GoogLenet InceptionNet V1 V2 V3模型(TensorFlow)「建议收藏」
- ACM 训练 数组的距离(单调性)----------C语言—菜鸟级
- 只需训练一次,即可生成3D新场景!谷歌「光场神经渲染」进化史
- 【vue】牛客专题训练03
- 开发自己私有chatGPT(五)训练微调openai模型
- 2.基于Label studio的训练数据标注指南:(智能文档)文档抽取任务、PDF、表格、图片抽取标注等
- ICLR 2022 | DBD: 基于分割后门训练过程的后门防御方法
- 预训练模型微调 | 一文带你了解Adapter Tuning
- MetaAI 提出CRINGE损失方法,引入badcase 提升模型训练效果
- NeurlPS 2022 | 全新大模型参数高效微调方法SSF:仅需训练0.3M的参数,效果卓越
- NeurIPS 2022 | 如何正确定义测试阶段训练?顺序推理和域适应聚类方法
- 登顶全球最权威AI性能基准评测,百度飞桨给分布式训练创造了标杆
- 机器学习中的新数学,加速AI训练离不开数字表示方式和基本计算的变革
- ICLR 2022 | DBD: 基于分割后门训练过程的后门防御方法
- 开挖扩散模型小动作,生成图像几乎原版复制训练数据,隐私要暴露了
- 基于无标注网络驾驶视频,自动驾驶策略预训练新方法 | ICLR 2023
- DALL-E和Flamingo能相互理解吗?三个预训练SOTA神经网络统一图像和文本
- Galvatron项目原作解读:大模型分布式训练神器,一键实现高效自动并行
- 舍弃谱归一化,这篇ICCV'21论文用梯度归一化训练GAN,效果极好
- 如何基于元学习方法进行有效的模型训练?四篇论文详细剖析元模型的学习原理和过程
- 用ChatGPT训练羊驼:「白泽」开源,轻松构建专属模型,可在线试玩
- 用金庸、古龙群侠名称训练 LSTM,会生成多么奇葩的名字?
- ICLR-17最佳论文作者Nicolas Papernot现场演讲:如何用PATE框架有效保护隐私训练数据?(附视频)