如何将PyTorch ResNet50模型导出为支持动态batch size的ONNX格式?

花韻仙語
发布: 2025-03-10 11:36:14
原创
634人浏览过

如何将pytorch resnet50模型导出为支持动态batch size的onnx格式?

本文阐述如何将PyTorch ResNet50模型导出为支持动态batch size的ONNX格式。 我们将解决导出过程中可能遇到的与动态batch size相关的难题。 原始代码中存在一些问题,例如imageretrievalnet类中未使用的self.lwhiten属性和gem类中使用parameter类型的self.p属性,这些都可能导致ONNX导出失败。

ONNX导出对动态形状和特定PyTorch操作符的处理有限制。gem类中self.p作为可学习参数,以及imageretrievalnet类中冗余属性,会增加导出复杂度,导致形状推断错误。

为了解决这些问题,我们需要修改代码:移除imageretrievalnet类中无用的self.lwhiten属性,并将gem类中的self.p属性改为常量赋值。 修改后的代码如下:

import torch
import torch.nn as nn
from torchvision import models

class gem(nn.Module):
    def __init__(self, p=3, eps=1e-6):
        super(gem, self).__init__()
        self.p = p  # p设置为常量
        self.eps = eps

    def forward(self, x: torch.Tensor) -> torch.Tensor:
        return torch.pow(torch.mean(torch.pow(x, self.p), dim=1, keepdim=True) + self.eps, 1/self.p)

class l2n(nn.Module):
    def __init__(self):
        super(l2n, self).__init__()

    def forward(self, x: torch.Tensor) -> torch.Tensor:
        return x / torch.norm(x, p=2, dim=1, keepdim=True)

class ImageRetrievalNet(nn.Module):
    def __init__(self, dim: int = 512):
        super(ImageRetrievalNet, self).__init__()
        resnet50_model = models.resnet50()
        features = list(resnet50_model.children())[:-2]
        self.features = nn.Sequential(*features)
        self.pool = gem()
        self.whiten = nn.Linear(2048, dim, bias=True)
        self.norm = l2n()

    def forward(self, x: torch.Tensor) -> torch.Tensor:
        o: torch.Tensor = self.features(x)
        pooled_t = self.pool(o)
        normed_t: torch.Tensor = self.norm(pooled_t)
        o: torch.Tensor = normed_t.squeeze(-1).squeeze(-1)
        if self.whiten is not None:
            whitened_t = self.whiten(o)
            normed_t: torch.Tensor = self.norm(whitened_t)
            o = normed_t
        return o.permute(1, 0)
登录后复制

通过这些修改,我们解决了ONNX导出过程中遇到的动态形状和参数类型不匹配问题。 现在,可以使用以下代码将修改后的模型导出为支持动态batch size的ONNX格式:

model = ImageRetrievalNet()
batch_size = 1  # 使用1进行测试,实际部署时batch size可变
input_shape = (batch_size, 3, 224, 224)
input_data = torch.randn(input_shape)
torch.onnx.export(
    model,
    input_data,
    "resnet50.onnx",
    input_names=["input"], output_names=["output"],
    opset_version=12,
    dynamic_axes={"input": {0: "batch_size"}, "output": {0: "batch_size"}}
)
登录后复制

修改后的代码能够成功导出ONNX模型并支持动态batch size,主要是因为消除了阻碍动态形状推断的因素,从而使ONNX导出过程顺利完成。 请确保已安装必要的库:torch, torchvision, onnx.

以上就是如何将PyTorch ResNet50模型导出为支持动态batch size的ONNX格式?的详细内容,更多请关注php中文网其它相关文章!

最佳 Windows 性能的顶级免费优化软件
最佳 Windows 性能的顶级免费优化软件

每个人都需要一台速度更快、更稳定的 PC。随着时间的推移,垃圾文件、旧注册表数据和不必要的后台进程会占用资源并降低性能。幸运的是,许多工具可以让 Windows 保持平稳运行。

下载
相关标签:
来源:php中文网
本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系admin@php.cn
最新问题
开源免费商场系统广告
热门教程
更多>
最新下载
更多>
网站特效
网站源码
网站素材
前端模板
关于我们 免责申明 意见反馈 讲师合作 广告合作 最新更新
php中文网:公益在线php培训,帮助PHP学习者快速成长!
关注服务号 技术交流群
PHP中文网订阅号
每天精选资源文章推送
PHP中文网APP
随时随地碎片化学习
PHP中文网抖音号
发现有趣的

Copyright 2014-2025 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号