python神经网络Pytorch中Tensorboard函数使用
作者:Bubbliiiing 时间:2021-03-30 04:27:01
所需库的安装
很多人问Pytorch要怎么可视化,于是决定搞一篇。
tensorboardX==2.0
tensorflow==1.13.2
由于tensorboard原本是在tensorflow里面用的,所以需要装一个tensorflow。会自带一个tensorboard。
也可以不装tensorboardX,直接使用pytorch当中的自带的Tensorboard。导入方式如下:
from torch.utils.tensorboard import SummaryWriter
不过由于我使用pytorch当中的自带的Tensorboard的时候有一些bug。所以还是使用tensorboardX来写这篇博客。
常用函数功能
1、SummaryWriter()
这个函数用于创建一个tensorboard文件,其中常用参数有:
log_dir:tensorboard文件的存放路径flush_secs:表示写入tensorboard文件的时间间隔
调用方式如下:
writer = SummaryWriter(log_dir='logs',flush_secs=60)
2、writer.add_graph()
这个函数用于在tensorboard中创建Graphs,Graphs中存放了网络结构,其中常用参数有:
model:pytorch模型
input_to_model:pytorch模型的输入
如下所示为graphs:
调用方式如下:
if Cuda:
graph_inputs = torch.from_numpy(np.random.rand(1,3,input_shape[0],input_shape[1])).type(torch.FloatTensor).cuda()
else:
graph_inputs = torch.from_numpy(np.random.rand(1,3,input_shape[0],input_shape[1])).type(torch.FloatTensor)
writer.add_graph(model, (graph_inputs,))
3、writer.add_scalar()
这个函数用于在tensorboard中加入loss,其中常用参数有:
tag:标签,如下图所示的Train_loss
scalar_value:标签的值
global_step:标签的x轴坐标
调用方式如下:
writer.add_scalar('Train_loss', loss, (epoch*epoch_size + iteration))
4、tensorboard --logdir=
在完成tensorboard文件的生成后,可在命令行调用该文件,tensorboard网址。具体代码如下:
tensorboard --logdir=D:\Study\Collection\Tensorboard-pytorch\logs
示例代码
import torch
from torch.autograd import Variable
import torch.nn.functional as functional
from tensorboardX import SummaryWriter
import matplotlib.pyplot as plt
import numpy as np
# x的shape为(100,1)
x = torch.from_numpy(np.linspace(-1,1,100).reshape([100,1])).type(torch.FloatTensor)
# y的shape为(100,1)
y = torch.sin(x) + 0.2*torch.rand(x.size())
class Net(torch.nn.Module):
def __init__(self, n_feature, n_hidden, n_output):
super(Net, self).__init__()
# Applies a linear transformation to the incoming data: :math:y = xA^T + b
# 全连接层,公式为y = xA^T + b
self.hidden = torch.nn.Linear(n_feature, n_hidden)
self.predict = torch.nn.Linear(n_hidden, n_output)
def forward(self, x):
# 隐含层的输出
hidden_layer = functional.relu(self.hidden(x))
output_layer = self.predict(hidden_layer)
return output_layer
# 类的建立
net = Net(n_feature=1, n_hidden=10, n_output=1)
writer = SummaryWriter('logs')
graph_inputs = torch.from_numpy(np.random.rand(2,1)).type(torch.FloatTensor)
writer.add_graph(net, (graph_inputs,))
# torch.optim是优化器模块
optimizer = torch.optim.Adam(net.parameters(), lr=1e-3)
# 均方差loss
loss_func = torch.nn.MSELoss()
for t in range(1000):
prediction = net(x)
loss = loss_func(prediction, y)
# 反向传递步骤
# 1、初始化梯度
optimizer.zero_grad()
# 2、计算梯度
loss.backward()
# 3、进行optimizer优化
optimizer.step()
writer.add_scalar('loss',loss, t)
writer.close()
效果如下:
来源:https://blog.csdn.net/weixin_44791964/article/details/106701052
标签:python,神经网络,Pytorch,Tensorboard,函数
0
投稿
猜你喜欢
Flask-WTF表单的使用方法
2022-03-07 07:34:59
封装 Python 时间处理库创建自己的TimeUtil类示例
2023-01-15 00:45:56
python中main函数(主函数)相关应用例子
2023-08-23 08:54:59
python 等差数列末项计算方式
2022-01-29 10:12:57
javascript验证上传文件的类型限制必须为某些格式
2024-04-18 09:36:34
在python中利用pycharm自定义代码块教程(三步搞定)
2022-11-20 01:00:50
Oracle与SQL Server在企业应用的比较
2010-07-20 13:34:00
发一个数字拼图网页游戏
2008-10-12 10:02:00
mysql 安全管理详情
2024-01-18 05:58:00
Python中操作文件之write()方法的使用教程
2023-12-29 06:06:13
django在保存图像的同时压缩图像示例代码详解
2021-09-21 15:42:46
[转]去百度面试的javascript 收获
2024-06-09 06:27:34
浅谈MySQL的存储引擎之表类型存储
2011-05-05 08:10:00
5分钟教会你用Docker部署一个Python应用
2023-11-12 10:24:09
MySQL解决Navicat设置默认字符串时的报错问题
2024-01-26 08:13:54
js中的window.open返回object的错误的解决方法
2024-04-17 09:52:27
Python使用PyAudio制作录音工具的实现代码
2023-09-07 22:36:46
mpvue跳转页面及注意事项
2024-05-02 16:09:57
python神经网络学习使用Keras进行简单分类
2023-09-18 04:37:23
Python实现Windows和Linux之间互相传输文件(文件夹)的方法
2022-10-15 07:08:14