基于pytorch的lstm参数使用详解

作者:hufei_neo 时间:2023-11-21 08:41:21 

lstm(*input, **kwargs)

将多层长短时记忆(LSTM)神经网络应用于输入序列。

参数:

input_size:输入'x'中预期特性的数量

hidden_size:隐藏状态'h'中的特性数量

num_layers:循环层的数量。例如,设置' ' num_layers=2 ' '意味着将两个LSTM堆叠在一起,形成一个'堆叠的LSTM ',第二个LSTM接收第一个LSTM的输出并计算最终结果。默认值:1

bias:如果' False',则该层不使用偏置权重' b_ih '和' b_hh '。默认值:'True'

batch_first:如果' 'True ' ',则输入和输出张量作为(batch, seq, feature)提供。默认值: 'False'

dropout:如果非零,则在除最后一层外的每个LSTM层的输出上引入一个“dropout”层,相当于:attr:'dropout'。默认值:0

bidirectional:如果‘True',则成为双向LSTM。默认值:'False'

输入:input,(h_0, c_0)

**input**of shape (seq_len, batch, input_size):包含输入序列特征的张量。输入也可以是一个压缩的可变长度序列。

see:func:'torch.nn.utils.rnn.pack_padded_sequence' 或:func:'torch.nn.utils.rnn.pack_sequence' 的细节。

**h_0** of shape (num_layers * num_directions, batch, hidden_size):张量包含批处理中每个元素的初始隐藏状态。

如果RNN是双向的,num_directions应该是2,否则应该是1。

**c_0** of shape (num_layers * num_directions, batch, hidden_size):张量包含批处理中每个元素的初始单元格状态。

如果没有提供' (h_0, c_0) ',则**h_0**和**c_0**都默认为零。

输出:output,(h_n, c_n)

**output**of shape (seq_len, batch, num_directions * hidden_size) :包含LSTM最后一层输出特征' (h_t) '张量,

对于每个t. If a:class: 'torch.nn.utils.rnn.PackedSequence' 已经给出,输出也将是一个打包序列。

对于未打包的情况,可以使用'output.view(seq_len, batch, num_directions, hidden_size)',正向和反向分别为方向' 0 '和' 1 '。

同样,在包装的情况下,方向可以分开。

**h_n** of shape (num_layers * num_directions, batch, hidden_size):包含' t = seq_len '隐藏状态的张量。

与*output*类似, the layers可以使用以下命令分隔

h_n.view(num_layers, num_directions, batch, hidden_size) 对于'c_n'相似

**c_n** (num_layers * num_directions, batch, hidden_size):张量包含' t = seq_len '的单元状态

所有的权重和偏差都初始化自: 基于pytorch的lstm参数使用详解 where: 基于pytorch的lstm参数使用详解


include:: cudnn_persistent_rnn.rst

import torch
import torch.nn as nn

# 双向rnn例子
# rnn = nn.RNN(10, 20, 2)
# input = torch.randn(5, 3, 10)
# h0 = torch.randn(2, 3, 20)
# output, hn = rnn(input, h0)
# print(output.shape,hn.shape)
# torch.Size([5, 3, 20]) torch.Size([2, 3, 20])

# 双向lstm例子
rnn = nn.LSTM(10, 20, 2)   #(input_size,hidden_size,num_layers)
input = torch.randn(5, 3, 10)  #(seq_len, batch, input_size)
h0 = torch.randn(2, 3, 20)    #(num_layers * num_directions, batch, hidden_size)
c0 = torch.randn(2, 3, 20)    #(num_layers * num_directions, batch, hidden_size)
# output:(seq_len, batch, num_directions * hidden_size)
# hn,cn(num_layers * num_directions, batch, hidden_size)
output, (hn, cn) = rnn(input, (h0, c0))

print(output.shape,hn.shape,cn.shape)
>>>torch.Size([5, 3, 20]) torch.Size([2, 3, 20]) torch.Size([2, 3, 20])

来源:https://blog.csdn.net/hufei_neo/article/details/94435294

标签:pytorch,lstm,参数
0
投稿

猜你喜欢

  • Python调用Prometheus监控数据并计算

    2023-12-01 02:18:39
  • 获取SqlServer存储过程定义的三种方法

    2024-01-24 06:03:38
  • C#自动创建数据库实现代码

    2024-01-17 14:18:03
  • MySQL查询条件常见用法详解

    2024-01-16 10:10:22
  • 使用python远程操作linux过程解析

    2021-12-01 21:05:27
  • JavaScript对象的创建模式与继承模式示例讲解

    2024-04-23 09:27:40
  • Python深度学习之Keras模型转换成ONNX模型流程详解

    2023-01-02 00:32:44
  • pytest使用parametrize将参数化变量传递到fixture

    2022-03-28 23:30:18
  • 简单的Python动态可视化神器,编程小白也能上手

    2021-05-28 09:59:27
  • pycharm: 恢复(reset) 误删文件的方法

    2023-09-09 10:11:24
  • Python中字符编码简介、方法及使用建议

    2021-10-11 21:58:33
  • 元组列表字典(莫烦python基础)

    2022-03-23 09:15:58
  • 小程序开发之uniapp引入iconfont图标以及使用方式

    2024-04-22 13:09:05
  • 分享Pytest fixture参数传递的几种方式

    2023-06-15 01:25:28
  • 海量数据库的查询优化及分页算法方案集合1/2第1/2页

    2024-01-16 02:00:06
  • 用pandas按列合并两个文件的实例

    2022-05-31 22:21:04
  • 深入讲解Python中的迭代器和生成器

    2021-11-29 05:32:56
  • Python利用pywin32实现自动操作电脑

    2024-01-03 03:35:59
  • Python OpenCV绘制各类几何图形详解

    2023-02-04 18:27:01
  • 简单了解python列表和元组的区别

    2022-02-11 17:14:43
  • asp之家 网络编程 m.aspxhome.com