$ hub install ssd_vgg16_512_coco2017==1.1.0
模型名称 | ssd_vgg16_512_coco2017 |
---|---|
类别 | 图像 - 目标检测 |
网络 | SSD |
数据集 | COCO2017 |
是否支持Fine-tuning | 否 |
模型大小 | 139MB |
最新更新日期 | 2021-03-15 |
数据指标 | - |
paddlepaddle >= 1.6.2
paddlehub >= 1.6.0
$ hub install ssd_vgg16_512_coco2017
$ hub run ssd_vgg16_512_coco2017 --input_path "/PATH/TO/IMAGE"
import paddlehub as hub
import cv2
object_detector = hub.Module(name="ssd_vgg16_512_coco2017")
result = object_detector.object_detection(images=[cv2.imread('/PATH/TO/IMAGE')])
# or
# result = object_detector.object_detection((paths=['/PATH/TO/IMAGE'])
def object_detection(paths=None,
images=None,
batch_size=1,
use_gpu=False,
output_dir='detection_result',
score_thresh=0.5,
visualization=True)
预测API,检测输入图片中的所有目标的位置。
参数
NOTE: paths和images两个参数选择其一进行提供数据
返回
def save_inference_model(dirname)
将模型保存到指定路径。
参数
PaddleHub Serving可以部署一个目标检测的在线服务。
$ hub serving start -m ssd_vgg16_512_coco2017
这样就完成了一个目标检测的服务化API的部署,默认端口号为8866。
NOTE: 如使用GPU预测,则需要在启动服务之前,请设置CUDA_VISIBLE_DEVICES环境变量,否则不用设置。
配置好服务端,以下数行代码即可实现发送预测请求,获取预测结果
import requests
import json
import cv2
import base64
def cv2_to_base64(image):
data = cv2.imencode('.jpg', image)[1]
return base64.b64encode(data.tostring()).decode('utf8')
# 发送HTTP请求
data = {'images':[cv2_to_base64(cv2.imread("/PATH/TO/IMAGE"))]}
headers = {"Content-type": "application/json"}
url = "http://127.0.0.1:8866/predict/ssd_vgg16_512_coco2017"
r = requests.post(url=url, headers=headers, data=json.dumps(data))
# 打印预测结果
print(r.json()["results"])
1.0.0
初始发布
1.0.2
修复numpy数据读取问题
1.1.0
移除 fluid api