【问题】——Tesla P4 docker 部署pytorch模型时,推理速度慢

it2026-04-01  9

用docker部署GPU pytorch 推理,mobilenetv2模型,224*244的输入,时间需要:

size:224*224 | 平均耗时为:0.223 size:640*480 | 平均耗时为:0.436 size:1080*720 | 平均耗时为:0.633 size:1920*1080 | 平均耗时为:0.827

torch.cuda.is_available() 检查=True

解决方案 无

最新回复(0)