Skip to content

Latest commit

 

History

History
 
 

style_transfer

Folders and files

NameName
Last commit message
Last commit date

parent directory

..
 
 
 
 
 
 
 
 
 
 

PaddleHub 图像风格迁移

本示例将展示如何使用PaddleHub对预训练模型进行finetune并完成预测任务。

命令行预测

$ hub run msgnet --input_path "/PATH/TO/ORIGIN/IMAGE" --style_path "/PATH/TO/STYLE/IMAGE"

如何开始Fine-tune

在完成安装PaddlePaddle与PaddleHub后,通过执行python train.py即可开始使用msgnet模型对MiniCOCO等数据集进行Fine-tune。

代码步骤

使用PaddleHub Fine-tune API进行Fine-tune可以分为4个步骤。

Step1: 定义数据预处理方式

import paddlehub.vision.transforms as T

transform = T.Compose([T.Resize((256, 256), interpolation='LINEAR')])

transforms 数据增强模块定义了丰富的数据预处理方式,用户可按照需求替换自己需要的数据预处理方式。

Step2: 下载数据集并使用

from paddlehub.datasets.minicoco import MiniCOCO

styledata = MiniCOCO(transform=transform, mode='train')
  • transforms: 数据预处理方式。
  • mode: 选择数据模式,可选项有 train, test, 默认为train

数据集的准备代码可以参考 minicoco.pyhub.datasets.MiniCOCO()会自动从网络下载数据集并解压到用户目录下$HOME/.paddlehub/dataset目录。

Step3: 加载预训练模型

model = hub.Module(name='msgnet', load_checkpoint=None)
  • name: 选择预训练模型的名字。
  • load_checkpoint: 是否加载自己训练的模型,若为None,则加载提供的模型默认参数。

Step4: 选择优化策略和运行配置

optimizer = paddle.optimizer.Adam(learning_rate=0.0001, parameters=model.parameters())
trainer = Trainer(model, optimizer, checkpoint_dir='test_style_ckpt')
trainer.train(styledata, epochs=101, batch_size=4, eval_dataset=styledata, log_interval=10, save_interval=10)

优化策略

Paddle2.0rc提供了多种优化器选择,如SGD, Adam, Adamax等,详细参见策略

其中Adam:

  • learning_rate: 全局学习率。默认为1e-4;
  • parameters: 待优化模型参数。

运行配置

Trainer 主要控制Fine-tune的训练,包含以下可控制的参数:

  • model: 被优化模型;
  • optimizer: 优化器选择;
  • use_vdl: 是否使用vdl可视化训练过程;
  • checkpoint_dir: 保存模型参数的地址;
  • compare_metrics: 保存最优模型的衡量指标;

trainer.train 主要控制具体的训练过程,包含以下可控制的参数:

  • train_dataset: 训练时所用的数据集;
  • epochs: 训练轮数;
  • batch_size: 训练的批大小,如果使用GPU,请根据实际情况调整batch_size;
  • num_workers: works的数量,默认为0;
  • eval_dataset: 验证集;
  • log_interval: 打印日志的间隔, 单位为执行批训练的次数。
  • save_interval: 保存模型的间隔频次,单位为执行训练的轮数。

模型预测

当完成Fine-tune后,Fine-tune过程在验证集上表现最优的模型会被保存在${CHECKPOINT_DIR}/best_model目录下,其中${CHECKPOINT_DIR}目录为Fine-tune时所选择的保存checkpoint的目录。

我们使用该模型来进行预测。predict.py脚本如下:

import paddle
import paddlehub as hub

if __name__ == '__main__':
    model = hub.Module(name='msgnet', load_checkpoint="/PATH/TO/CHECKPOINT")
    result = model.predict(origin=["venice-boat.jpg"], style="candy.jpg", visualization=True, save_path ='style_tranfer')

参数配置正确后,请执行脚本python predict.py, 加载模型具体可参见加载

Args

  • origin:原始图像路径或BGR格式图片;
  • style: 风格图像路径;
  • visualization: 是否可视化,默认为True;
  • save_path: 保存结果的路径,默认保存路径为'style_tranfer'。

NOTE: 进行预测时,所选择的module,checkpoint_dir,dataset必须和Fine-tune所用的一样。

服务部署

PaddleHub Serving可以部署一个在线风格迁移服务。

Step1: 启动PaddleHub Serving

运行启动命令:

$ hub serving start -m msgnet

这样就完成了一个风格迁移服务化API的部署,默认端口号为8866。

NOTE: 如使用GPU预测,则需要在启动服务之前,请设置CUDA_VISIBLE_DEVICES环境变量,否则不用设置。

Step2: 发送预测请求

配置好服务端,以下数行代码即可实现发送预测请求,获取预测结果

import requests
import json
import cv2
import base64

import numpy as np


def cv2_to_base64(image):
    data = cv2.imencode('.jpg', image)[1]
    return base64.b64encode(data.tostring()).decode('utf8')

def base64_to_cv2(b64str):
    data = base64.b64decode(b64str.encode('utf8'))
    data = np.fromstring(data, np.uint8)
    data = cv2.imdecode(data, cv2.IMREAD_COLOR)
    return data

# 发送HTTP请求
org_im = cv2.imread('/PATH/TO/ORIGIN/IMAGE')
style_im = cv2.imread('/PATH/TO/STYLE/IMAGE')
data = {'images':[[cv2_to_base64(org_im)], cv2_to_base64(style_im)]}
headers = {"Content-type": "application/json"}
url = "http://127.0.0.1:8866/predict/msgnet"
r = requests.post(url=url, headers=headers, data=json.dumps(data))
data = base64_to_cv2(r.json()["results"]['data'][0])
cv2.imwrite('style.png', data)

查看代码

https://github.com/zhanghang1989/PyTorch-Multi-Style-Transfer

依赖

paddlepaddle >= 2.0.0rc

paddlehub >= 2.0.0