摘要:
文章目录概述一、利用torchstat 1.1 方法 1.2 代码 1.3 输出二、利用ptflops 2.1 方法 2.2 代码 2.3 输出三、利用thop 3.1 方法 3.2 代码 3.3 输出概述 Params:是指网络模型中需要训练的参数总数,理解为参数量。 FLOPs:是指浮点运算次数 阅读全文
posted @ 2022-04-17 15:49
咖啡陪你
阅读(2473)
评论(4)
推荐(0)
摘要:
1. 定义文件flops_counter.py import sys import torch import torch.nn as nn import numpy as np def get_model_complexity_info(model, input_res, print_per_lay 阅读全文
posted @ 2022-04-17 15:43
咖啡陪你
阅读(1011)
评论(0)
推荐(0)
摘要:
import torch from flops_counter import get_model_complexity_info input_shape = (3, 320, 568) split_line = '=' * 30 flops, params = get_model_complexit 阅读全文
posted @ 2022-04-17 15:42
咖啡陪你
阅读(420)
评论(0)
推荐(0)
摘要:
在pytorch环境下,有两个计算FLOPs和参数量的包thop和ptflops,结果基本是一致的。 thop 参考https://github.com/Lyken17/pytorch-OpCounter 安装方法:pip install thop 使用方法: from torchvision.mo 阅读全文
posted @ 2022-04-17 15:40
咖啡陪你
阅读(2981)
评论(0)
推荐(0)

浙公网安备 33010602011771号