【MMOCR】使用 MMOCR 训练自己的文本检测模型
训练 模型 检测 自己 文本 使用
2023-09-14 09:13:57 时间
MMOCR 是基于 PyTorch 和 mmdetection 的开源工具箱,专注于文本检测,文本识别以及相应的下游任务,如关键信息提取。
推荐使用 1.x 版本:https://github.com/open-mmlab/mmocr/tree/1.x
一、安装
conda create -n open-mmlab python=3.8 pytorch=1.10 cudatoolkit=11.3 torchvision -c pytorch -y
conda activate open-mmlab
pip3 install openmim
mim install mmengine
mim install 'mmcv>=2.0.0rc1'
mim install 'mmdet>=3.0.0rc0'
git clone https://github.com/open-mmlab/mmocr.git
cd mmocr
git checkout 1.x
pip3 install -e .
二、数据准备
MMOCR 中提供了一站式数据集准备方式,可以使用一行命令实现让多个数据集准备就绪。
三、支持的方法
3.1 文本检测
- DBNet (AAAI’2020) / DBNet++ (TPAMI’2022)
- Mask R-CNN (ICCV’2017)
- PANet (ICCV’2019)
- PSENet (CVPR’2019)
- TextSnake (ECCV’2018)
- DRRG (CVPR’2020)
- FCENet (CVPR’2021)
3.2 文本识别
- ABINet (CVPR’2021)
- CRNN (TPAMI’2016)
- MASTER (PR’2021)
- NRTR (ICDAR’2019)
- RobustScanner (ECCV’2020)
- SAR (AAAI’2019)
- SATRN (CVPR’2020 Workshop on Text and Documents in the Deep Learning Era)
- SegOCR (Manuscript’2021)
3.3 关键信息提取
- SDMG-R (ArXiv’2021)
3.4 命名实体识别
- Bert-Softmax (NAACL’2019)
四、训练和测试
1、对单张图进行推理并可视化
python mmocr/utils/ocr.py demo/demo_text_ocr.jpg --print-result --imshow
2、训练
# 用 seg 方法来训练文本识别任务
python tools/train.py configs/textrecog/seg/seg_r31_1by16_fpnocr_toy_dataset.py --work-dir seg
# 训练 icdar2015,需要将数据集和 json 放到 data_root 下
python tools/train.py configs/textdet/dbnet/dbnet_r18_fpnc_1200e_icdar2015.py --work-dir dbnet
3、测试
# 测试 dbnet/latest.pth 的 hmean-iou 指标
python tools/test.py configs/textdet/dbnet/dbnet_r18_fpnc_1200e_icdar2015.py dbnet/latest.pth --eval hmean-iou
相关文章
- 宽度学习(BLS)实战——python复刻MNIST数据集的数据预处理及训练过程[通俗易懂]
- 模型训练技巧[通俗易懂]
- python题库刷题训练选择题_python值得学吗
- 基于PaddlePaddle训练中文标点符号模型
- 快递单中抽取关键信息【一】----基于BiGRU+CR+预训练的词向量优化
- 隐私计算FATE-模型训练
- 5个时间序列预测的深度学习模型对比总结:从模拟统计模型到可以预训练的无监督模型
- 【vue】牛客专题训练03
- 目标检测再升级!YOLOv8模型训练和部署
- 基于python的opencv人脸训练模型
- NeurlPS 2022 | 全新大模型参数高效微调方法SSF:仅需训练0.3M的参数,效果卓越
- 强化学习调参技巧一: DDPG算法训练动作选择边界值_分析解决
- PaddleHub--飞桨预训练模型应用工具{风格迁移模型、词法分析情感分析、Fine-tune API微调}【一】
- [Nat.Mach.Intell.|论文简读]scBERT 用于单细胞RNA-seq数据的细胞类型标注的大规模预训练深度语言模型
- [Nature Communications | 论文简读] 由多序列比对训练的蛋白质语言模型学习系统发育关系
- 在 Google Colab 上试验 NVIDIA TAO 工具包和预训练模型
- 新至强训练推理增效10倍,英特尔CPU加速AI更上一层楼
- 机器学习训练中常见的问题和挑战!
- 微软赢麻了!数十亿文本-图像对训练,多模态Florence开启免费体验,登上Azure
- 训练Rainbow算法需要1425个GPU Day?谷歌说强化学习可以降低计算成本
- 哈工大车万翔教授带你学习NLP新范式:基于预训练的方法(赠书)
- 基于无监督预训练的语音识别技术落地实践 火山语音表示有话要说
- 细粒度语义理解超越CLIP!华为云与浙大联合发布多模态预训练模型LOUPE,无需人工标注,零样本迁移实现目标检测!
- CNCC 2022|预训练大模型的未来
- DeepSpeed Chat: 一键式RLHF训练,让你的类ChatGPT千亿大模型提速省钱15倍
- 预告:如何在树莓派上用 CNN 训练语音模型 | AI 研习社