PaddleClas 支持通过 PaddleHub 快速进行服务化部署。目前支持图像分类的部署,图像识别的部署敬请期待。
hubserving 服务部署配置服务包 clas
下包含 3 个必选文件,目录如下:
hubserving/clas/
└─ __init__.py 空文件,必选
└─ config.json 配置文件,可选,使用配置启动服务时作为参数传入
└─ module.py 主模块,必选,包含服务的完整逻辑
└─ params.py 参数文件,必选,包含模型路径、前后处理参数等参数
# 安装paddlehub,请安装2.0版本
pip3 install paddlehub==2.1.0 --upgrade -i https://pypi.tuna.tsinghua.edu.cn/simple
安装服务模块前,需要准备推理模型并放到正确路径,默认模型路径为:
- 分类推理模型结构文件:
PaddleClas/inference/inference.pdmodel
- 分类推理模型权重文件:
PaddleClas/inference/inference.pdiparams
注意:
-
模型文件路径可在
PaddleClas/deploy/hubserving/clas/params.py
中查看和修改:"inference_model_dir": "../inference/"
需要注意,
- 模型文件(包括
.pdmodel
与.pdiparams
)名称必须为inference
。 - 我们也提供了大量基于ImageNet-1k数据集的预训练模型,模型列表及下载地址详见模型库概览,也可以使用自己训练转换好的模型。
针对 Linux 环境和 Windows 环境,安装命令如下。
- 在Linux环境下,安装示例如下:
cd PaddleClas/deploy
# 安装服务模块:
hub install hubserving/clas/
- 在Windows环境下(文件夹的分隔符为
\
),安装示例如下:
cd PaddleClas\deploy
# 安装服务模块:
hub install hubserving\clas\
该方式仅支持使用 CPU 预测。启动命令:
$ hub serving start --modules Module1==Version1 \
--port XXXX \
--use_multiprocess \
--workers \
参数说明:
参数 | 用途 |
---|---|
--modules/-m | [必选] PaddleHub Serving预安装模型,以多个Module==Version键值对的形式列出当不指定Version时,默认选择最新版本 |
--port/-p | [可选] 服务端口,默认为8866 |
--use_multiprocess | [可选] 是否启用并发方式,默认为单进程方式,推荐多核CPU机器使用此方式Windows操作系统只支持单进程方式 |
--workers | [可选] 在并发方式下指定的并发任务数,默认为2*cpu_count-1 ,其中cpu_count 为CPU核数 |
如按默认参数启动服务:hub serving start -m clas_system
这样就完成了一个服务化 API 的部署,使用默认端口号 8866。
该方式仅支持使用 CPU 或 GPU 预测。启动命令:
hub serving start -c config.json
其中,config.json
格式如下:
{
"modules_info": {
"clas_system": {
"init_args": {
"version": "1.0.0",
"use_gpu": true,
"enable_mkldnn": false
},
"predict_args": {
}
}
},
"port": 8866,
"use_multiprocess": false,
"workers": 2
}
参数说明:
init_args
中的可配参数与module.py
中的_initialize
函数接口一致。其中,- 当
use_gpu
为true
时,表示使用GPU启动服务。 - 当
enable_mkldnn
为true
时,表示使用MKL-DNN加速。
- 当
predict_args
中的可配参数与module.py
中的predict
函数接口一致。
注意:
- 使用配置文件启动服务时,将使用配置文件中的参数设置,其他命令行参数将被忽略;
- 如果使用 GPU 预测(即,
use_gpu
置为true
),则需要在启动服务之前,设置CUDA_VISIBLE_DEVICES
环境变量来指定所使用的 GPU 卡号,如:export CUDA_VISIBLE_DEVICES=0
; use_gpu
不可与use_multiprocess
同时为true
;use_gpu
与enable_mkldnn
同时为true
时,将忽略enable_mkldnn
,而使用 GPU。
如使用 GPU 3号卡启动服务:
cd PaddleClas/deploy
export CUDA_VISIBLE_DEVICES=3
hub serving start -c hubserving/clas/config.json
配置好服务端后,可使用以下命令发送预测请求,获取预测结果:
cd PaddleClas/deploy
python hubserving/test_hubserving.py server_url image_path
脚本参数说明:
- server_url:服务地址,格式为
http://[ip_address]:[port]/predict/[module_name]
- image_path:测试图像路径,可以是单张图片路径,也可以是图像集合目录路径。
- batch_size:[可选] 以
batch_size
大小为单位进行预测,默认为1
。 - resize_short:[可选] 预处理时,按短边调整大小,默认为
256
。 - crop_size:[可选] 预处理时,居中裁剪的大小,默认为
224
。 - normalize:[可选] 预处理时,是否进行
normalize
,默认为True
。 - to_chw:[可选] 预处理时,是否调整为
CHW
顺序,默认为True
。
注意:如果使用Transformer
系列模型,如DeiT_***_384
, ViT_***_384
等,请注意模型的输入数据尺寸,需要指定--resize_short=384 --crop_size=384
。
访问示例:
python hubserving/test_hubserving.py --server_url http://127.0.0.1:8866/predict/clas_system --image_file ./hubserving/ILSVRC2012_val_00006666.JPEG --batch_size 8
返回结果格式说明: 返回结果为列表(list),包含 top-k 个分类结果,以及对应的得分,还有此图片预测耗时,具体如下:
list: 返回结果
└─ list: 第一张图片结果
└─ list: 前k个分类结果,依score递减排序
└─ list: 前k个分类结果对应的score,依score递减排序
└─ float: 该图分类耗时,单位秒
如果需要修改服务逻辑,需要进行以下操作:
-
停止服务
hub serving stop --port/-p XXXX
-
到相应的
module.py
和params.py
等文件中根据实际需求修改代码。module.py
修改后需要重新安装(hub install hubserving/clas/
)并部署。在进行部署前,可通过python hubserving/clas/module.py
测试已安装服务模块。 -
卸载旧服务包
hub uninstall clas_system
-
安装修改后的新服务包
hub install hubserving/clas/
5.重新启动服务
hub serving start -m clas_system
注意:
常用参数可在 PaddleClas/deploy/hubserving/clas/params.py
中修改:
- 更换模型,需要修改模型文件路径参数:
"inference_model_dir":
- 更改后处理时返回的
top-k
结果数量:'topk':
- 更改后处理时的lable与class id对应映射文件:
'class_id_map_file':
为了避免不必要的延时以及能够以 batch_size 进行预测,数据预处理逻辑(包括 resize
、crop
等操作)均在客户端完成,因此需要在 PaddleClas/deploy/hubserving/test_hubserving.py#L35-L52
中修改。