预训练模型还要训练吗_多模态预训练模型
若使用已保存好的镜像reid_mgn:v1,在本机上可按如下操作训练
# 1.进入已保存环境的镜像(reid_mgn:v1(8.48G)、pytorch/pytorch:1.0.1-cuda10.0-cudnn7-devel_mgnreid(6.37G))
nvidia-docker run -it –rm -v /home/lc-deep/sdr:/home/personReID reid_mgn:v1 /bin/bash (服务器10.10.113.130)
nvidia-docker run -it –rm –name sxue -v /home/lc-deep/sdr:/home/personReID pytorch/pytorch:1.0.1-cuda10.0-cudnn7-devel_mgnreid /bin/bash
docker attach ID
nvidia-docker run -it –rm –name mgn -v /home/deep/share2/docker_data:/home -v /home/deep/sxue:/home/personReID ufoym/deepo:testv1 /bin/bash (75服务器)
# 2.进入到工程目录
cd /home/personReID/MGN-pytorch-master
# 3.复制预训练模型到指定路径(可跳过这步)
cp /home/personReID/MGN-pytorch-master/resnet50-19c8e357.pth /root/.cache/torch/checkpoints/resnet50-19c8e357.pth
#### 注每次需查电脑自动保存的根目录 /root/.cache/torch/checkpoints/resnet50-19c8e357.pth 会因电脑不同而不同
cp /home/personReID/MGN-pytorch-master/resnet50-19c8e357.pth /root/.torch/models/resnet50-19c8e357.pth
# 打开另一个终端
docker ps 查看容器内镜像(找到reid_mgn:v1 前对应的数字字符串%%%%)
docker stats %%%%% 实时监测内存情况
# 4.训练(在原终端继续进行,注:demo.sh是已改好参数的)
sh demo1.sh
补充: 训练前需要修改的文件及代码
1.demo.sh文件
修改data路径(把你的数据集路径添加到 –datadir)、GPU、参数等如下:
CUDA_VISIBLE_DEVICES=0 python main.py –reset –datadir /home/personReID/MGN-pytorch-master/Market1501/ –batchid 4 –batchtest 16 –test_every 20 –epochs 80 –decay_type step_40_60 –loss 1*CrossEntropy+2*Triplet –margin 0.3 –re_rank –random_erasing –save MGN_adam –nGPU 1 –lr 2e-4 –optimizer ADAM –save_models
注:需将数据集文件名由原始的Market-1501-****改为和代码匹配的Market1501
2.trainer.py
修改train、test中的epoch
3.main.py
如果是单GPU训练,需按如下添加命令
版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 举报,一经查实,本站将立刻删除。
发布者:全栈程序员栈长,转载请注明出处:https://javaforall.cn/185472.html原文链接:https://javaforall.cn
相关文章
- VggNet10模型的cifar10深度学习训练
- 基于yolov4的目标检测_yolov5预训练模型
- 超越CLIP的多模态模型,只需不到1%的训练数据!南加大最新研究来了
- 多模态理解与生成,西南交大&MSRA提出统一的"视频和语言预训练"模型:UniVL!
- PyTorch—torchvision.models导入预训练模型—残差网络代码讲解
- Pytorch的基本介绍及模型训练流程
- Pytorch模型训练实用教程学习笔记:二、模型的构建
- Pytorch模型训练实用教程学习笔记:三、损失函数汇总
- Mask Rcnn目标分割-训练自己数据集-详细步骤[通俗易懂]
- 隐私计算FATE-模型训练
- 图文实录|澜舟科技合伙人李京梅:基于预训练模型的 AIGC 技术与应用实践
- NeurIPS 2022 | 拯救“中国相声” ! 预训练模型(PLMs)应用新场景 ??(含源码)
- 仅需1% Embedding参数,硬件成本降低十倍,开源方案单GPU训练超大推荐模型
- NLP涉及技术原理和应用简单讲解【二】:paddle(分布式训练、AMP自动混合精度训练、模型量化、模型性能分析)
- 开源模型、单卡训练,带你了解爆火的文本指导音频生成技术AudioLDM
- 2023年 AI 十大展望:GPT-4 领衔大模型变革,谷歌拉响警报,训练数据告急
- MIGA项目原作解读:基于生成式预训练语言模型T5的Text-to-SQL模型
- 可扩展、可解释,新框架从预训练语言模型中高效提取知识图谱
- 一日一卡挑战:RTX2080Ti搞定大模型训练,算力节省136倍,学界欢呼
- 超越谷歌BERT!依图推出预训练语言理解模型ConvBERT,入选NeurIPS 2020
- 立即停止训练比 GPT-4 更强的模型,至少六个月!马斯克、图灵奖得主等数千 AI 专家紧急呼吁
- 3090单卡5小时,每个人都能训练专属ChatGPT,港科大开源LMFlow
- 对话 APUS 李涛:全面转型做 AI,蒸馏法训练大模型,沉淀中小模型
- 让他们听见世界:用多模态预训练模型,铺设数字化“盲道”
- 训练课程广州尚观创造Linux学习新体验(广州尚观linux)
- 络训练Linux520网络技能大赛:学习、提高、胜出(linux520网)