目前FastDeploy支持如下模型的部署
【注意】如你部署的为PP-Matting、PP-HumanMatting以及ModNet请参考Matting模型部署
PaddleSeg模型导出,请参考其文档说明模型导出
注意
- PaddleSeg导出的模型包含
model.pdmodel
、model.pdiparams
和deploy.yaml
三个文件,FastDeploy会从yaml文件中获取模型在推理时需要的预处理信息 - aarch64平台(如:Jetson)暂时只支持
onnxruntime
和tensorrt
作为后端推理(不支持非固定shape的图片输入即动态输入)。因此,必须指定--input_shape
导出具有固定输入的PaddleSeg模型(FastDeploy会在预处理阶段,对原图进行resize操作) - 在使用其他平台(如:Windows、Mac、Linux),在导出PaddleSeg模型模型时,可指定
--input_shape
参数(当想采用onnxruntime
或tensorrt
作为后端进行推理)。但是,若输入的预测图片尺寸并不固定,建议使用默认值即不指定该参数(同时采用Paddle Inference或者OpenVino作为后端进行推理)
为了方便开发者的测试,下面提供了PaddleSeg导出的部分模型(导出方式为:不指定--input_shape
,指定--output_op none
),开发者可直接下载使用。
模型 | 参数文件大小 | 输入Shape | mIoU | mIoU (flip) | mIoU (ms+flip) |
---|---|---|---|---|---|
Unet-cityscapes | 52MB | 1024x512 | 65.00% | 66.02% | 66.89% |
PP-LiteSeg-T(STDC1)-cityscapes | 31MB | 1024x512 | 77.04% | 77.73% | 77.46% |
PP-HumanSegV1-Lite(通用人像分割模型) | 543KB | 192x192 | 86.2% | - | - |
PP-HumanSegV2-Lite(通用人像分割模型) | 12MB | 192x192 | 92.52% | - | - |
PP-HumanSegV2-Mobile(通用人像分割模型) | 29MB | 192x192 | 93.13% | - | - |
PP-HumanSegV1-Server(通用人像分割模型) | 103MB | 512x512 | 96.47% | - | - |
Portait-PP-HumanSegV2_Lite(肖像分割模型) | 3.6M | 256x144 | 96.63% | - | - |
FCN-HRNet-W18-cityscapes | 37MB | 1024x512 | 78.97% | 79.49% | 79.74% |
Deeplabv3-ResNet101-OS8-cityscapes | 150MB | 1024x512 | 79.90% | 80.22% | 80.47% |