本示例将展示如何使用PaddleHub对预训练模型进行finetune并完成预测任务。
$ hub run msgnet --input_path "/PATH/TO/ORIGIN/IMAGE" --style_path "/PATH/TO/STYLE/IMAGE"
在完成安装PaddlePaddle与PaddleHub后,通过执行python train.py
即可开始使用msgnet模型对MiniCOCO等数据集进行Fine-tune。
使用PaddleHub Fine-tune API进行Fine-tune可以分为4个步骤。
import paddlehub.vision.transforms as T
transform = T.Compose([T.Resize((256, 256), interpolation='LINEAR')])
transforms
数据增强模块定义了丰富的数据预处理方式,用户可按照需求替换自己需要的数据预处理方式。
from paddlehub.datasets.minicoco import MiniCOCO
styledata = MiniCOCO(transform=transform, mode='train')
transforms
: 数据预处理方式。mode
: 选择数据模式,可选项有train
,test
, 默认为train
。
数据集的准备代码可以参考 minicoco.py。hub.datasets.MiniCOCO()
会自动从网络下载数据集并解压到用户目录下$HOME/.paddlehub/dataset
目录。
model = hub.Module(name='msgnet', load_checkpoint=None)
name
: 选择预训练模型的名字。load_checkpoint
: 是否加载自己训练的模型,若为None,则加载提供的模型默认参数。
optimizer = paddle.optimizer.Adam(learning_rate=0.0001, parameters=model.parameters())
trainer = Trainer(model, optimizer, checkpoint_dir='test_style_ckpt')
trainer.train(styledata, epochs=101, batch_size=4, eval_dataset=styledata, log_interval=10, save_interval=10)
Paddle2.0rc提供了多种优化器选择,如SGD
, Adam
, Adamax
等,详细参见策略。
其中Adam
:
learning_rate
: 全局学习率。默认为1e-4;parameters
: 待优化模型参数。
Trainer
主要控制Fine-tune的训练,包含以下可控制的参数:
model
: 被优化模型;optimizer
: 优化器选择;use_vdl
: 是否使用vdl可视化训练过程;checkpoint_dir
: 保存模型参数的地址;compare_metrics
: 保存最优模型的衡量指标;
trainer.train
主要控制具体的训练过程,包含以下可控制的参数:
train_dataset
: 训练时所用的数据集;epochs
: 训练轮数;batch_size
: 训练的批大小,如果使用GPU,请根据实际情况调整batch_size;num_workers
: works的数量,默认为0;eval_dataset
: 验证集;log_interval
: 打印日志的间隔, 单位为执行批训练的次数。save_interval
: 保存模型的间隔频次,单位为执行训练的轮数。
当完成Fine-tune后,Fine-tune过程在验证集上表现最优的模型会被保存在${CHECKPOINT_DIR}/best_model
目录下,其中${CHECKPOINT_DIR}
目录为Fine-tune时所选择的保存checkpoint的目录。
我们使用该模型来进行预测。predict.py脚本如下:
import paddle
import paddlehub as hub
if __name__ == '__main__':
model = hub.Module(name='msgnet', load_checkpoint="/PATH/TO/CHECKPOINT")
result = model.predict(origin=["venice-boat.jpg"], style="candy.jpg", visualization=True, save_path ='style_tranfer')
参数配置正确后,请执行脚本python predict.py
, 加载模型具体可参见加载。
Args
origin
:原始图像路径或BGR格式图片;style
: 风格图像路径;visualization
: 是否可视化,默认为True;save_path
: 保存结果的路径,默认保存路径为'style_tranfer'。
NOTE: 进行预测时,所选择的module,checkpoint_dir,dataset必须和Fine-tune所用的一样。
PaddleHub Serving可以部署一个在线风格迁移服务。
运行启动命令:
$ hub serving start -m msgnet
这样就完成了一个风格迁移服务化API的部署,默认端口号为8866。
NOTE: 如使用GPU预测,则需要在启动服务之前,请设置CUDA_VISIBLE_DEVICES环境变量,否则不用设置。
配置好服务端,以下数行代码即可实现发送预测请求,获取预测结果
import requests
import json
import cv2
import base64
import numpy as np
def cv2_to_base64(image):
data = cv2.imencode('.jpg', image)[1]
return base64.b64encode(data.tostring()).decode('utf8')
def base64_to_cv2(b64str):
data = base64.b64decode(b64str.encode('utf8'))
data = np.fromstring(data, np.uint8)
data = cv2.imdecode(data, cv2.IMREAD_COLOR)
return data
# 发送HTTP请求
org_im = cv2.imread('/PATH/TO/ORIGIN/IMAGE')
style_im = cv2.imread('/PATH/TO/STYLE/IMAGE')
data = {'images':[[cv2_to_base64(org_im)], cv2_to_base64(style_im)]}
headers = {"Content-type": "application/json"}
url = "http://127.0.0.1:8866/predict/msgnet"
r = requests.post(url=url, headers=headers, data=json.dumps(data))
data = base64_to_cv2(r.json()["results"]['data'][0])
cv2.imwrite('style.png', data)
https://github.com/zhanghang1989/PyTorch-Multi-Style-Transfer
paddlepaddle >= 2.0.0rc
paddlehub >= 2.0.0