【YOLOV5从开发到部署实战】四、模型训练
2023-09-27 14:23:04 时间
首先我们去到YOLOV5的官方仓库下:https://github.com/ultralytics/yolov5 看到一个绿色的按钮 Code,然后点击Download ZIP,就可以拿到代码了。如果你进不去这个仓库的网址,你可以查看这个方法:github网址无法访问怎么办? 把yolov5这个仓库链接代码导入到Gitee,你就可以下载了。解压缩代码以后,进入到YOLOv5的代码文件夹:
加入数据
我们把上一步准备好的数据集文件夹dataset直接复制或者剪切到yolov5的文件夹下。
修改参数
进入到yolov5文件夹下的models下,把每个**.yaml**结尾的文件里面的第4行修改为你的类别数。
开始训练
完成以上所有工作,我们就可以在yolov5文件夹下打开cmd,输入:
# img是输入网络图片大小,batch是每批次读入图片数量,epochs是训练的轮次,data是我们准备的数据集文件夹,cfg是模型配置文件,weights是采取的预训练模型,device是使用什么设备,0就是gpu,使用cpu就写cpu
# 注意:
相关文章
- 使用weka训练一个分类器
- Transformers 加载预训练模型
- AI-多模态-2022:TCL【triple contrastive learning】【三重对比学习的视觉-语言预训练模型】
- 模型调优:warm_up【针对学习率优化的一种方式:在训练开始的时候先选择使用一个较小的学习率,训练了一些epoches或者steps之后再修改为预先设置的学习率来进行训练】
- 模型压缩-方案(二)-剪枝【①训练一个基准模型;②、对权重值的幅度进行排序,去掉低于一个预设阈值的连接,得到剪枝后的网络;③、对剪枝后网络进行微调以恢复损失的性能;④、重复第②步】
- 使用FORCE训练的脉冲神经网络中的监督学习(Matlab代码实现)
- 2.特定领域知识图谱融合方案:文本匹配算法之预训练Simbert、ERNIE-Gram单塔模型等诸多模型【三】
- DeepSpeed Chat: 一键式RLHF训练,让你的类ChatGPT千亿大模型提速省钱15倍
- 谷歌BERT预训练源码解析(一):训练数据生成
- 基于BERT预训练的中文命名实体识别TensorFlow实现
- OpenAI 和DeepMind开源人工智能训练平台
- 【一】分布式训练---单机多卡多机多卡(飞桨paddle1.8)
- 【机器学习PAI实践十】深度学习Caffe框架实现图像分类的模型训练
- fpga实操训练(按键输入)
- mmclassification 训练自定义数据
- 提高自然语言处理模型鲁棒性的秘密武器——对抗训练