pytorch打印網(wǎng)絡(luò)結(jié)構(gòu)的實(shí)例
最簡單的方法當(dāng)然可以直接print(net),但是這樣網(wǎng)絡(luò)比較復(fù)雜的時(shí)候效果不太好,看著比較亂;以前使用caffe的時(shí)候有一個(gè)網(wǎng)站可以在線生成網(wǎng)絡(luò)框圖,tensorflow可以用tensor board,keras中可以用model.summary()、或者plot_model()。pytorch沒有這樣的API,但是可以用代碼來完成。
(1)安裝環(huán)境:graphviz
conda install -n pytorch python-graphviz
或:
sudo apt-get install graphviz
或者從官網(wǎng)下載,按此教程。
(2)生成網(wǎng)絡(luò)結(jié)構(gòu)的代碼:
def make_dot(var, params=None):
""" Produces Graphviz representation of PyTorch autograd graph
Blue nodes are the Variables that require grad, orange are Tensors
saved for backward in torch.autograd.Function
Args:
var: output Variable
params: dict of (name, Variable) to add names to node that
require grad (TODO: make optional)
"""
if params is not None:
assert isinstance(params.values()[0], Variable)
param_map = {id(v): k for k, v in params.items()}
node_attr = dict(style='filled',
shape='box',
align='left',
fontsize='12',
ranksep='0.1',
height='0.2')
dot = Digraph(node_attr=node_attr, graph_attr=dict(size="12,12"))
seen = set()
def size_to_str(size):
return '('+(', ').join(['%d' % v for v in size])+')'
def add_nodes(var):
if var not in seen:
if torch.is_tensor(var):
dot.node(str(id(var)), size_to_str(var.size()), fillcolor='orange')
elif hasattr(var, 'variable'):
u = var.variable
name = param_map[id(u)] if params is not None else ''
node_name = '%s\n %s' % (name, size_to_str(u.size()))
dot.node(str(id(var)), node_name, fillcolor='lightblue')
else:
dot.node(str(id(var)), str(type(var).__name__))
seen.add(var)
if hasattr(var, 'next_functions'):
for u in var.next_functions:
if u[0] is not None:
dot.edge(str(id(u[0])), str(id(var)))
add_nodes(u[0])
if hasattr(var, 'saved_tensors'):
for t in var.saved_tensors:
dot.edge(str(id(t)), str(id(var)))
add_nodes(t)
add_nodes(var.grad_fn)
return dot
(3)打印網(wǎng)絡(luò)結(jié)構(gòu):
import torch
from torch.autograd import Variable
import torch.nn as nn
from graphviz import Digraph
class CNN(nn.module):
def __init__(self):
******
def forward(self,x):
******
return out
*****************************
def make_dot(): #復(fù)制上面的代碼
*****************************
if __name__ == '__main__':
net = CNN()
x = Variable(torch.randn(1, 1, 1024,1024))
y = net(x)
g = make_dot(y)
g.view()
params = list(net.parameters())
k = 0
for i in params:
l = 1
print("該層的結(jié)構(gòu):" + str(list(i.size())))
for j in i.size():
l *= j
print("該層參數(shù)和:" + str(l))
k = k + l
print("總參數(shù)數(shù)量和:" + str(k))
(4)結(jié)果展示(例如這是一個(gè)resnet block類型的網(wǎng)絡(luò)):

以上這篇pytorch打印網(wǎng)絡(luò)結(jié)構(gòu)的實(shí)例就是小編分享給大家的全部內(nèi)容了,希望能給大家一個(gè)參考,也希望大家多多支持腳本之家。
相關(guān)文章
Python?numpy下幾種fft函數(shù)的使用方式
numpy中有一個(gè)fft的庫,scipy中也有一個(gè)fftpack的庫,各自都有fft函數(shù),兩者的用法基本是一致的,下面這篇文章主要給大家介紹了關(guān)于Python?numpy下幾種fft函數(shù)的使用方式,需要的朋友可以參考下2022-08-08
利用信號如何監(jiān)控Django模型對象字段值的變化詳解
這篇文章主要給大家介紹了關(guān)于利用信號如何監(jiān)控Django模型對象字段值變化的相關(guān)資料,文中通過示例代碼介紹的非常詳細(xì),需要的朋友可以參考借鑒,下面隨著小編來一起學(xué)習(xí)學(xué)習(xí)吧。2017-11-11
Python 機(jī)器學(xué)習(xí)之線性回歸詳解分析
回歸是監(jiān)督學(xué)習(xí)的一個(gè)重要問題,回歸用于預(yù)測輸入變量和輸出變量之間的關(guān)系,特別是當(dāng)輸入變量的值發(fā)生變化時(shí),輸出變量的值也隨之發(fā)生變化?;貧w模型正是表示從輸入變量到輸出變量之間映射的函數(shù)2021-11-11
刪除python pandas.DataFrame 的多重index實(shí)例
今天小編就為大家分享一篇刪除python pandas.DataFrame 的多重index實(shí)例,具有很好的參考價(jià)值,希望對大家有所幫助。一起跟隨小編過來看看吧2018-06-06

