模型名称 | UGATIT_100w |
---|---|
类别 | 图像 - 图像生成 |
网络 | U-GAT-IT |
数据集 | selfie2anime |
是否支持Fine-tuning | 否 |
模型大小 | 41MB |
最新更新日期 | 2021-02-26 |
数据指标 | - |
-
- UGATIT图像风格转换模型, 模型可将输入的人脸图像转换成动漫风格, 模型详情请参考UGATIT-Paddle开源项目。
-
-
paddlepaddle >= 1.8.0
-
paddlehub >= 1.8.0 | 如何安装paddlehub
-
-
-
$ hub install UGATIT_100w
- 如您安装时遇到问题,可参考:零基础windows安装 | 零基础Linux安装 | 零基础MacOS安装
-
-
-
import paddlehub as hub import cv2 model = hub.Module(name="UGATIT_100w") result = model.style_transfer(images=[cv2.imread('/PATH/TO/IMAGE')]) # or # result = model.style_transfer(paths=['/PATH/TO/IMAGE'])
-
-
-
def style_transfer(images=None, paths=None, batch_size=1, output_dir='output', visualization=False)
-
风格转换API,将输入的人脸图像转换成动漫风格。
-
参数
- images (list[numpy.ndarray]): 图片数据,ndarray.shape 为 [H, W, C];
- paths (list[str]): 图片的路径;
- batch_size (int): batch的大小;
- visualization (bool): 是否将识别结果保存为图片文件;
- output_dir (str): 图片的保存路径,默认设为 output;
NOTE: paths和images两个参数选择其一进行提供数据
- images (list[numpy.ndarray]): 图片数据,ndarray.shape 为 [H, W, C];
-
返回
- res (list[numpy.ndarray]): 输出图像数据,ndarray.shape 为 [H, W, C]
-
-
-
PaddleHub Serving可以部署一个在线图像风格转换服务。
-
-
运行启动命令:
-
$ hub serving start -m UGATIT_100w
-
这样就完成了一个图像风格转换的在线服务API的部署,默认端口号为8866。
-
NOTE: 如使用GPU预测,则需要在启动服务之前,请设置CUDA_VISIBLE_DEVICES环境变量,否则不用设置。
-
-
-
配置好服务端,以下数行代码即可实现发送预测请求,获取预测结果
-
import requests import json import cv2 import base64 def cv2_to_base64(image): data = cv2.imencode('.jpg', image)[1] return base64.b64encode(data.tostring()).decode('utf8') # 发送HTTP请求 data = {'images':[cv2_to_base64(cv2.imread("/PATH/TO/IMAGE"))]} headers = {"Content-type": "application/json"} url = "http://127.0.0.1:8866/predict/UGATIT_100w" r = requests.post(url=url, headers=headers, data=json.dumps(data)) # 打印预测结果 print(r.json()["results"])
-
-
1.0.0
初始发布
-
$ hub install UGATIT_100w==1.0.0
-