不一样的显卡,在Pytorch中跑相同的网络,配置文件、参数、数据集完全相同,为什么训练结果相差特别多?
2023-09-27 14:20:40 时间
gtx1070和gtx660,两个显卡,分别在caffe中跑相同的网络,配置文件、参数、数据集完全相同,为什么训练结果相差特别多,1070的训练损失特大,准确率与瞎猜差不多,反而是660的老显卡准确率0.9以上,请问有这是正常情况吗,难道根据显卡的配置不同,网络的参数调节也要有很大的不同吗?
很可能是cudnnV4和Nvidia显卡不兼容的问题造成的,我最近就遇到这个大坑。
建议跑一下caffe 里的mnist example。看看新显卡环境是不是准确率低。然后换到cudnnV5的caffe版本再试试。
基于pytorch的代码在GPU和CPU上训练时,训练输出结果不同问题_toroxy的博客-CSDN博客_cpu和gpu训练结果一样吗
相关文章
- word2vec词向量训练及中文文本类似度计算
- 模型训练和部署管理图解
- 一个中等规模的七段数码数据库以及利用它训练的识别网络
- Caffe初试(三)使用caffe的cifar10网络模型训练自己的图片数据
- 基于MATLAB的SVM支持向量机的数据分类仿真,包括训练和测试
- pytorch yolov3 推理和训练环境搭建
- 机器学习笔记之深度玻尔兹曼机(三)预训练思路整理
- pytorch Dataset, DataLoader产生自定义的训练数据
- 强化学习 —— reinforce算法中更新一次策略网络时episodes个数的设置对算法性能的影响 —— reinforce算法中迭代训练一次神经网络时batch_size大小的不同设置对算法性能的影响
- 【Pytorch教程】08-如何使用PyTorch训练简单CIFAR10图片分类器(保姆级)
- 戴眼镜检测和识别2:Pytorch实现戴眼镜检测和识别(含戴眼镜数据集和训练代码)
- 试题 算法训练 拿金币(蓝桥杯)
- 蓝桥杯 之 算法训练 P0103
- 蓝桥杯 之 算法训练 动态数组使用
- Python蓝桥杯训练:基本数据结构 [哈希表]
- 入门训练 Fibonacci数列 (水题)
- PyTorch实现断点继续训练,学习率接着上一个epoch的接着变化