更新时间:2023-09-26 GMT+08:00
分享

调用部署服务进行推理

# 推理本地部署服务,本地服务的端口信息(如127.0.0.1:1234)将会在部署成功后打印在控制台中,推理本地服务,只需提供本地服务的地址即可

> python manage.py run --cfg algorithms/ivgSegmentation/config/sample/config.py --pipeline infer --demo_type image_service --url http://127.0.0.1:1234

# 推理在线服务,需要提供用户的AK和SK信息进行验证,URL可以在ModelArts的部署上线->在线服务->指定服务->调用指南中获取

> python manage.py run --cfg algorithms/ivgSegmentation/config/sample/config.py --pipeline infer --demo_type image_service --url {URL} --auth algorithms/ivgSegmentation/config/sample/config.py

服务请求成功后会在./output/deeplabv3_resnet50_standard-sample_1024x512/vis文件夹中保存请求的可视化结果。

分享:

    相关文档

    相关产品