Skip to content

Latest commit

 

History

History
executable file
·
205 lines (170 loc) · 13.3 KB

README.md

File metadata and controls

executable file
·
205 lines (170 loc) · 13.3 KB

PP-OCR

目录

1. 简介

PP-OCRv3,是百度飞桨团队开源的超轻量OCR系列模型,包含文本检测、文本分类、文本识别模型,是PaddleOCR工具库的重要组成之一。支持中英文数字组合识别、竖排文本识别、长文本识别,其性能及精度较之前的PP-OCR版本均有明显提升。本例程对PaddleOCR-release-2.6ch_PP-OCRv3_xx系列模型和算法进行移植,使之能在SOPHON BM1684/BM1684X/BM1688上进行推理测试。

2. 特性

  • 支持BM1688(SoC)/BM1684X(x86 PCIe、SoC)/BM1684(x86 PCIe、SoC、arm PCIe)
  • 支持FP32、FP16(BM1688/BM1684X)模型编译和推理
  • 支持基于BMCV预处理的C++推理
  • 支持基于OpenCV的Python推理
  • 支持单batch、多batch、组合batch模型推理
  • 支持图片数据集测试

3. 准备模型与数据

建议使用TPU-MLIR编译BModel,Paddle模型在编译前要导出成onnx模型。具体可参考Paddle部署模型导出Paddle2ONNX文档

同时,您需要准备用于测试的数据集,如果量化模型,还要准备用于量化的数据集。

本例程使用ICDAR-2019数据集进行测试。 PP-OCR开源仓库提供提供的更多公开数据集:https://github.com/PaddlePaddle/PaddleOCR/blob/release/2.6/doc/doc_ch/dataset/datasets.md

​本例程在scripts目录下提供了相关模型和数据的下载脚本download.sh,您也可以自己准备模型和数据集,并参考4. 模型编译进行模型转换。

# 安装unzip,若已安装请跳过,非ubuntu系统视情况使用yum或其他方式安装
sudo apt install unzip
chmod -R +x scripts/
./scripts/download.sh

下载的模型包括:

├── BM1684
│   ├── ch_PP-OCRv3_cls_fp32.bmodel # 使用TPU-MLIR编译,用于BM1684的FP32 BModel,由batch_size=1和batch_size=4的模型combine得到。
│   ├── ch_PP-OCRv3_det_fp32.bmodel # 使用TPU-MLIR编译,用于BM1684的FP32 BModel,由batch_size=1和batch_size=4的模型combine得到。
│   ├── ch_PP-OCRv3_rec_fp32.bmodel # 使用TPU-MLIR编译,用于BM1684的FP32 BModel,由batch_size=1和batch_size=4的模型combine得到。
├── BM1684X
│   ├── ch_PP-OCRv3_cls_fp16.bmodel # 使用TPU-MLIR编译,用于BM1684X的FP16 BModel,由batch_size=1和batch_size=4的模型combine得到。
│   ├── ch_PP-OCRv3_cls_fp32.bmodel # 使用TPU-MLIR编译,用于BM1684X的FP32 BModel,由batch_size=1和batch_size=4的模型combine得到。
│   ├── ch_PP-OCRv3_det_fp16.bmodel # 使用TPU-MLIR编译,用于BM1684X的FP16 BModel,由batch_size=1和batch_size=4的模型combine得到。
│   ├── ch_PP-OCRv3_det_fp32.bmodel # 使用TPU-MLIR编译,用于BM1684X的FP32 BModel,由batch_size=1和batch_size=4的模型combine得到。
│   ├── ch_PP-OCRv3_rec_fp16.bmodel # 使用TPU-MLIR编译,用于BM1684X的FP16 BModel,由batch_size=1和batch_size=4的模型combine得到。
│   ├── ch_PP-OCRv3_rec_fp32.bmodel # 使用TPU-MLIR编译,用于BM1684X的FP32 BModel,由batch_size=1和batch_size=4的模型combine得到。
│   BM1688
│   ├── ch_PP-OCRv3_cls_fp16.bmodel # 使用TPU-MLIR编译,用于BM1684X的FP16 BModel,由batch_size=1和batch_size=4的模型combine得到。
│   ├── ch_PP-OCRv3_cls_fp32.bmodel # 使用TPU-MLIR编译,用于BM1684X的FP32 BModel,由batch_size=1和batch_size=4的模型combine得到。
│   ├── ch_PP-OCRv3_det_fp16.bmodel # 使用TPU-MLIR编译,用于BM1684X的FP16 BModel,由batch_size=1和batch_size=4的模型combine得到。
│   ├── ch_PP-OCRv3_det_fp32.bmodel # 使用TPU-MLIR编译,用于BM1684X的FP32 BModel,由batch_size=1和batch_size=4的模型combine得到。
│   ├── ch_PP-OCRv3_rec_fp16.bmodel # 使用TPU-MLIR编译,用于BM1684X的FP16 BModel,由batch_size=1和batch_size=4的模型combine得到。
|   └── ch_PP-OCRv3_rec_fp32.bmodel # 使用TPU-MLIR编译,用于BM1684X的FP32 BModel,由batch_size=1和batch_size=4的模型combine得到。
├── onnx # 原始模型的onnx版本
└── paddle # 原始模型的paddlepaddle版本

下载的数据包括:

├── cali_set_det # 检测模型量化用的数据集
├── cali_set_rec # 分类、识别模型量化用的数据集
├── fonts # 字体
├── ppocr_keys_v1.txt # 汉字集合
├── train_full_images_0 # ICDAR-2019训练集
└── train_full_images_0.json # ICDAR-2019 ground truth文件

4. 模型编译

导出的模型需要编译成BModel才能在SOPHON TPU上运行,如果使用下载好的BModel可跳过本节。建议使用TPU-MLIR编译BModel。

模型编译前需要安装TPU-MLIR,具体可参考TPU-MLIR环境搭建。安装好后需在TPU-MLIR环境中进入例程目录。使用TPU-MLIR将onnx模型编译为BModel,具体方法可参考《TPU-MLIR快速入门手册》的“3. 编译ONNX模型”(请从算能官网相应版本的SDK中获取)。

  • 生成FP32 BModel

​本例程在scripts目录下提供了TPU-MLIR编译FP32 BModel的脚本,请注意修改gen_fp32bmodel_mlir.sh中的onnx模型路径、生成模型目录和输入大小shapes等参数,并在执行时指定BModel运行的目标平台(支持BM1684/BM1684X/BM1688),如:

./scripts/gen_fp32bmodel_mlir.sh bm1684 #bm1684x/bm1688

​执行上述命令会在models/BM1684等文件夹下生成ch_PP-OCRv3_det_fp32.bmodel等文件,即转换好的FP32 BModel。

  • 生成FP16 BModel

​本例程在scripts目录下提供了TPU-MLIR编译FP16 BModel的脚本,请注意修改gen_fp16bmodel_mlir.sh中的onnx模型路径、生成模型目录和输入大小shapes等参数,并在执行时指定BModel运行的目标平台(支持BM1684X/BM1688),如:

./scripts/gen_fp16bmodel_mlir.sh bm1684x #bm1684x/bm1688

​执行上述命令会在models/BM1684X/等文件夹下生成ch_PP-OCRv3_det_fp16.bmodel等文件,即转换好的FP16 BModel。

  • 本例程暂时不支持量化。

5. 推理测试

6. 精度测试

6.1 测试方法

当你运行了C++推理Python推理,生成了结果文件之后,你可以使用本例程的精度测试脚本tools/eval_icdar.py和Ground-truth文件datasets/train_full_images_0.json来计算结果文件的F-score/precision/recall,测试命令如下:

pip3 install -r python/requirements.txt #如果已经装好不必再装。
python3 tools/eval_icdar.py --gt_path datasets/train_full_images_0.json --result_json python/results/ppocr_system_results_b4.json

输出如下:

F-score: 0.57488, Precision: 0.80639, Recall: 0.44665

6.2 测试结果

在ICDAR-2019数据集上,精度测试结果如下:

测试平台 测试程序 模型精度 F-score
BM1684 PCIe ppocr_system_opencv.py fp32 0.575
BM1684 PCIe ppocr_bmcv.pcie fp32 0.573
BM1684X PCIe ppocr_system_opencv.py fp32 0.575
BM1684X PCIe ppocr_system_opencv.py fp16 0.575
BM1684X PCIe ppocr_bmcv.pcie fp32 0.572
BM1684X PCIe ppocr_bmcv.pcie fp16 0.572
BM1688 SoC ppocr_system_opencv.py fp32 0.575
BM1688 SoC ppocr_system_opencv.py fp16 0.574
BM1688 SoC ppocr_bmcv.soc fp32 0.570
BM1688 SoC ppocr_bmcv.soc fp16 0.569

测试说明

  1. 模型精度为fp32(fp16),即代表检测模型和识别模型都是fp32(fp16)的精度。
  2. 由于sdk版本之间可能存在差异,实际运行结果与本表有<1%的精度误差是正常的;

7. 性能测试

7.1 bmrt_test

使用bmrt_test测试模型的理论性能:

# 请根据实际情况修改要测试的bmodel路径和devid参数
bmrt_test --bmodel models/BM1684X/ch_PP-OCRv3_det_fp32.bmodel

测试各个模型的理论推理时间,结果如下:

测试模型 stage calculate time(ms)
BM1684/ch_PP-OCRv3_det_fp32.bmodel 1 15.4
^ 2 59.7
BM1684/ch_PP-OCRv3_rec_fp32.bmodel 1 2.7
^ 2 5.4
^ 3 8.5
^ 4 17.1
BM1684/ch_PP-OCRv3_cls_fp32.bmodel 1 0.3
^ 1 0.7
BM1684X/ch_PP-OCRv3_det_fp32.bmodel 1 14.9
^ 2 57.8
BM1684X/ch_PP-OCRv3_rec_fp32.bmodel 1 1.6
^ 2 2.8
^ 3 5.1
^ 4 9.8
BM1684X/ch_PP-OCRv3_cls_fp32.bmodel 1 0.2
^ 2 0.3
BM1684X/ch_PP-OCRv3_det_fp16.bmodel 1 3.3
^ 2 12.3
BM1684X/ch_PP-OCRv3_rec_fp16.bmodel 1 0.8
^ 2 1.0
^ 3 1.8
^ 4 3.4
BM1684X/ch_PP-OCRv3_cls_fp16.bmodel 1 0.1
^ 2 0.2

测试说明

  1. 性能测试结果具有一定的波动性;
  2. SoC和PCIe的测试结果基本一致。
  3. ^符号表示"同上"。

7.2 程序运行性能

参考C++例程Python例程运行程序,并查看其打印的时间信息。 在不同的测试平台上,使用不同的例程、模型测试datasets/train_full_images_0,性能测试结果如下:

测试平台 测试程序 测试模型 decode_time/crop_time preprocess_time inference_time postprocess_time
BM1684 SoC ppocr_system_opencv.py ch_PP-OCRv3_det_fp32.bmodel 37.96 25.51 25.08 13.04
^ ^ ch_PP-OCRv3_rec_fp32.bmodel 1.67 0.60 4.11 1.37
BM1684 SoC ppocr_bmcv.soc ch_PP-OCRv3_det_fp32.bmodel 7.31 5.26 14.65 3.16
^ ^ ch_PP-OCRv3_rec_fp32.bmodel 1.45 0.96 3.05 3.11
BM1684X SoC ppocr_system_opencv.py ch_PP-OCRv3_det_fp32.bmodel 37.79 25.99 24.90 13.50
^ ^ ch_PP-OCRv3_rec_fp32.bmodel 1.67 0.59 3.08 1.59
BM1684X SoC ppocr_system_opencv.py ch_PP-OCRv3_det_fp16.bmodel 37.58 25.79 14.16 13.30
^ ^ ch_PP-OCRv3_rec_fp16.bmodel 1.67 0.59 2.10 1.59
BM1684X SoC ppocr_bmcv.soc ch_PP-OCRv3_det_fp32.bmodel 6.72 1.31 13.59 3.44
^ ^ ch_PP-OCRv3_rec_fp32.bmodel 2.08 0.59 1.75 3.08
BM1684X SoC ppocr_bmcv.soc ch_PP-OCRv3_det_fp16.bmodel 6.72 1.30 2.78 3.53
^ ^ ch_PP-OCRv3_rec_fp16.bmodel 2.00 0.38 0.64 3.08

测试说明

  1. 时间单位均为毫秒(ms),统计的时间均为平均每张图片处理的时间;
  2. 性能测试结果具有一定的波动性,建议多次测试取平均值;
  3. BM1684/1684X SoC的主控处理器均为8核 ARM A53 42320 DMIPS @2.3GHz,PCIe上的性能由于处理器的不同可能存在较大差异;
  4. 图片分辨率对解码时间影响较大,推理结果对后处理时间影响较大,不同的测试图片可能存在较大差异,不同的阈值对后处理时间影响较大。
  5. 测试程序串联运行detrec模型,det模型对应decode_time,rec模型对应crop_time。