pytorch如何获得模型的计算量和参数量

作者:qq_35407318 时间:2023-07-24 06:44:43 

方法1 自带

pytorch自带方法,计算模型参数总量


total = sum([param.nelement() for param in model.parameters()])
print("Number of parameter: %.2fM" % (total/1e6))

或者


total = sum(p.numel() for p in model.parameters())
print("Total params: %.2fM" % (total/1e6))

方法2 编写代码

计算模型参数总量和模型计算量


def count_params(model, input_size=224):
   # param_sum = 0
   with open('models.txt', 'w') as fm:
       fm.write(str(model))

# 计算模型的计算量
   calc_flops(model, input_size)

# 计算模型的参数总量
   model_parameters = filter(lambda p: p.requires_grad, model.parameters())
   params = sum([np.prod(p.size()) for p in model_parameters])

print('The network has {} params.'.format(params))

# 计算模型的计算量
def calc_flops(model, input_size):

def conv_hook(self, input, output):
       batch_size, input_channels, input_height, input_width = input[0].size()
       output_channels, output_height, output_width = output[0].size()

kernel_ops = self.kernel_size[0] * self.kernel_size[1] * (self.in_channels / self.groups) * (
           2 if multiply_adds else 1)
       bias_ops = 1 if self.bias is not None else 0

params = output_channels * (kernel_ops + bias_ops)
       flops = batch_size * params * output_height * output_width

list_conv.append(flops)

def linear_hook(self, input, output):
       batch_size = input[0].size(0) if input[0].dim() == 2 else 1

weight_ops = self.weight.nelement() * (2 if multiply_adds else 1)
       bias_ops = self.bias.nelement()

flops = batch_size * (weight_ops + bias_ops)
       list_linear.append(flops)

def bn_hook(self, input, output):
       list_bn.append(input[0].nelement())

def relu_hook(self, input, output):
       list_relu.append(input[0].nelement())

def pooling_hook(self, input, output):
       batch_size, input_channels, input_height, input_width = input[0].size()
       output_channels, output_height, output_width = output[0].size()

kernel_ops = self.kernel_size * self.kernel_size
       bias_ops = 0
       params = output_channels * (kernel_ops + bias_ops)
       flops = batch_size * params * output_height * output_width

list_pooling.append(flops)

def foo(net):
       childrens = list(net.children())
       if not childrens:
           if isinstance(net, torch.nn.Conv2d):
               net.register_forward_hook(conv_hook)
           if isinstance(net, torch.nn.Linear):
               net.register_forward_hook(linear_hook)
           if isinstance(net, torch.nn.BatchNorm2d):
               net.register_forward_hook(bn_hook)
           if isinstance(net, torch.nn.ReLU):
               net.register_forward_hook(relu_hook)
           if isinstance(net, torch.nn.MaxPool2d) or isinstance(net, torch.nn.AvgPool2d):
               net.register_forward_hook(pooling_hook)
           return
       for c in childrens:
           foo(c)

multiply_adds = False
   list_conv, list_bn, list_relu, list_linear, list_pooling = [], [], [], [], []
   foo(model)
   if '0.4.' in torch.__version__:
       if assets.USE_GPU:
           input = torch.cuda.FloatTensor(torch.rand(2, 3, input_size, input_size).cuda())
       else:
           input = torch.FloatTensor(torch.rand(2, 3, input_size, input_size))
   else:
       input = Variable(torch.rand(2, 3, input_size, input_size), requires_grad=True)
   _ = model(input)

total_flops = (sum(list_conv) + sum(list_linear) + sum(list_bn) + sum(list_relu) + sum(list_pooling))

print('  + Number of FLOPs: %.2fM' % (total_flops / 1e6 / 2))

方法3 thop

需要安装thop


pip install thop

调用方法:计算模型参数总量和模型计算量,而且会打印每一层网络的具体信息


from thop import profile
input = torch.randn(1, 3, 224, 224)
flops, params = profile(model, inputs=(input,))
print(flops)
print(params)

或者


from torchvision.models import resnet50
from thop import profile

# model = resnet50()
checkpoints = '模型path'
model = torch.load(checkpoints)
model_name = 'yolov3 cut asff'
input = torch.randn(1, 3, 224, 224)
flops, params = profile(model, inputs=(input, ),verbose=True)
print("%s | %.2f | %.2f" % (model_name, params / (1000 ** 2), flops / (1000 ** 3)))#这里除以1000的平方,是为了化成M的单位,

注意:输入必须是四维的

提高输出可读性, 加入一下代码。


from thop import clever_format
macs, params = clever_format([flops, params], "%.3f")

方法4 torchstat


from torchstat import stat
from torchvision.models import resnet50, resnet101, resnet152, resnext101_32x8d

model = resnet50()
stat(model, (3, 224, 224))  #  (3,224,224)表示输入图片的尺寸

使用torchstat这个库来查看网络模型的一些信息,包括总的参数量params、MAdd、显卡内存占用量和FLOPs等。需要安装torchstat:


pip install torchstat

方法5 ptflops

作用:计算模型参数总量和模型计算量

安装方法:pip install ptflops

或者


pip install --upgrade git+https://github.com/sovrasov/flops-counter.pytorch.git

使用方法


import torchvision.models as models
import torch
from ptflops import get_model_complexity_info
with torch.cuda.device(0):
 net = models.resnet18()
 flops, params = get_model_complexity_info(net, (3, 224, 224), as_strings=True, print_per_layer_stat=True) #不用写batch_size大小,默认batch_size=1
 print('Flops:  ' + flops)
 print('Params: ' + params)

或者


from torchvision.models import resnet50
import torch
import torchvision.models as models
# import torch
from ptflops import get_model_complexity_info

# model = models.resnet50()   #调用官方的模型,
checkpoints = '自己模型的path'
model = torch.load(checkpoints)
model_name = 'yolov3 cut'
flops, params = get_model_complexity_info(model, (3,320,320),as_strings=True,print_per_layer_stat=True)
print("%s |%s |%s" % (model_name,flops,params))

注意,这里输入一定是要tuple类型,且不需要输入batch,直接输入输入通道数量与尺寸,如(3,320,320) 320为网络输入尺寸。

输出为网络模型的总参数量(单位M,即百万)与计算量(单位G,即十亿)

方法6 torchsummary

安装:pip install torchsummary

使用方法:


from torchsummary import summary
...
summary(your_model, input_size=(channels, H, W))

作用:

1、每一层的类型、shape 和 参数量

2、模型整体的参数量

3、模型大小,和 fp/bp 一次需要的内存大小,可以用来估计最佳 batch_size

补充:pytorch计算模型算力与参数大小

ptflops介绍

官方链接

这个脚本设计用于计算卷积神经网络中乘法-加法操作的理论数量。它还可以计算参数的数量和打印给定网络的每层计算成本。

支持layer:Conv1d/2d/3d,ConvTranspose2d,BatchNorm1d/2d/3d,激活(ReLU, PReLU, ELU, ReLU6, LeakyReLU),Linear,Upsample,Poolings (AvgPool1d/2d/3d、MaxPool1d/2d/3d、adaptive ones)

安装要求:Pytorch >= 0.4.1, torchvision >= 0.2.1

get_model_complexity_info()

get_model_complexity_info是ptflops下的一个方法,可以计算出网络的算力与模型参数大小,并且可以输出每层的算力消耗。

栗子

以输出Mobilenet_v2算力信息为例:


from ptflops import get_model_complexity_info
from torchvision import models
net = models.mobilenet_v2()
ops, params = get_model_complexity_info(net, (3, 224, 224), as_strings=True, print_per_layer_stat=True, verbose=True)

pytorch如何获得模型的计算量和参数量

从图中可以看到,MobileNetV2在输入图像尺寸为(3, 224, 224)的情况下将会产生3.505MB的参数,算力消耗为0.32G,同时还打印出了每个层所占用的算力,权重参数数量。当然,整个模型的算力大小与模型大小也被存到了变量ops与params中。

来源:https://blog.csdn.net/qq_35407318/article/details/109359006

标签:pytorch,模型,计算量,参数量
0
投稿

猜你喜欢

  • Python 3.8正式发布,来尝鲜这些新特性吧

    2023-01-30 18:54:16
  • python 顺时针打印矩阵的超简洁代码

    2023-03-25 14:03:52
  • 格式化数字ASP,PHP版

    2009-01-19 14:17:00
  • 手写Vue2.0 数据劫持的示例

    2024-05-22 10:43:17
  • Django文件存储 自己定制存储系统解析

    2023-09-17 13:06:25
  • 解决Python3中二叉树前序遍历的迭代问题

    2022-04-11 09:05:24
  • 如何上传一个.SQL文件到远程主机并且执行它来部署一个SQL数据库

    2007-09-23 13:03:00
  • 一文总结MySQL中数学函数有哪些

    2024-01-28 11:24:09
  • 无阻塞加载脚本分析[全]

    2024-04-17 10:25:35
  • Oracle 处理json数据的方法

    2024-01-16 15:11:15
  • jQuery实现弹出带遮罩层的居中浮动窗口效果

    2024-04-19 10:17:20
  • Python实现将Excel转换成为image的方法

    2023-08-10 03:59:55
  • 将HTML自动转为JS代码

    2010-03-17 20:49:00
  • 详细讲解HDFS的高可用机制

    2023-11-13 03:37:47
  • Python爬虫:url中带字典列表参数的编码转换方法

    2021-11-02 17:50:45
  • Python条件语句与循环语句

    2023-01-03 05:07:21
  • Django中Aggregation聚合的基本使用方法

    2023-09-15 02:38:29
  • Javascript"篱式"条件判断(翻译)

    2008-08-01 12:21:00
  • python argparse模块传参用法实例

    2022-01-19 09:53:42
  • Python通过format函数格式化显示值

    2021-11-06 06:13:01
  • asp之家 网络编程 m.aspxhome.com