温馨提示×

温馨提示×

您好,登录后才能下订单哦!

密码登录×
登录注册×
其他方式登录
点击 登录注册 即表示同意《亿速云用户服务条款》

pytorch中使用LSTM实例分析

发布时间:2022-07-27 11:52:03 来源:亿速云 阅读:146 作者:iii 栏目:开发技术

这篇“pytorch中使用LSTM实例分析”文章的知识点大部分人都不太理解,所以小编给大家总结了以下内容,内容详细,步骤清晰,具有一定的借鉴价值,希望大家阅读完这篇文章能有所收获,下面我们一起来看看这篇“pytorch中使用LSTM实例分析”文章吧。

    LSMT层

    可以在troch.nn模块中找到LSTM类

    lstm = torch.nn.LSTM(*paramsters)

    1、__init__方法

    首先对nn.LSTM类进行实例化,需要传入的参数如下图所示:

    pytorch中使用LSTM实例分析

    一般我们关注这4个:

    • input_size表示输入的每个token的维度,也可以理解为一个word的embedding的维度。

    • hidden_size表示隐藏层也就是记忆单元C的维度,也可以理解为要将一个word的embedding维度转变成另一个大小的维度。除了C,在LSTM中输出的H的维度与C的维度是一致的。

    • num_layers表示有多少层LSTM,加深网络的深度,这个参数对LSTM的输出的维度是有影响的(后文会提到)。

    • bidirectional表示是否需要双向LSTM,这个参数也会对后面的输出有影响。

    2、forward方法的输入

    将数据input传入forward方法进行前向传播时有3个参数可以输入,见下图:

    pytorch中使用LSTM实例分析

    • 这里要注意的是input参数各个维度的意义,一般来说如果不在实例化时制定batch_first=True,那么input的第一个维度是输入句子的长度seq_len,第二个维度是批量的大小,第三个维度是输入句子的embedding维度也就是input_size,这个参数要与__init__方法中的第一个参数对应。

    • 另外记忆细胞中的两个参数h_0c_0可以选择自己初始化传入也可以不传,系统默认是都初始化为0。传入的话注意维度[bidirectional * num_layers, batch_size, hidden_size]。

    3、forward方法的输出

    forward方法的输出如下图所示:

    pytorch中使用LSTM实例分析

    一般采用如下形式:

    out,(h_n, c_n) = lstm(x)

    out表示在最后一层上,每一个时间步的输出,也就是句子有多长,这个out的输出就有多长;其维度为[seq_len, batch_size, hidden_size * bidirectional]。因为如果的双向LSTM,最后一层的输出会把正向的和反向的进行拼接,故需要hidden_size * bidirectional。h_n表示的是每一层(双向算两层)在最后一个时间步上的输出;其维度为[bidirectional * num_layers, batch_size, hidden_size]
    假设是双向的LSTM,且是3层LSTM,双向每个方向算一层,两个方向的组合起来叫一层LSTM,故共会有6层(3个正向,3个反向)。所以h_n是每层的输出,bidirectional * num_layers = 6。c_n表示的是每一层(双向算两层)在最后一个时间步上的记忆单元,意义不同,但是其余均与 h_n一样。

    LSTMCell

    可以在troch.nn模块中找到LSTMCell类

    lstm = torch.nn.LSTMCell(*paramsters)

    它的__init__方法的参数设置与LSTM类似,但是没有num_layers参数,因为这就是一个细胞单元,谈不上多少层和是否双向。
    forward输入和输出与LSTM均有所不同:

    pytorch中使用LSTM实例分析

    其相比LSTM,输入没有了时间步的概念,因为只有一个Cell单元;输出 也没有out参数,因为就一个Cell,out就是h_1h_1c_1也因为只有一个Cell单元,其没有层数上的意义,故只是一个Cell的输出的维度[batch_size, hidden_size].

    代码演示如下:

    rnn = nn.LSTMCell(10, 20) # (input_size, hidden_size)
    input = torch.randn(2, 3, 10) # (time_steps, batch, input_size)
    hx = torch.randn(3, 20) # (batch, hidden_size)
    cx = torch.randn(3, 20)
    output = []
    # 从输入的第一个维度也就是seq_len上遍历,每循环一次,输入一个单词
    for i in range(input.size()[0]):
    		# 更新细胞记忆单元
            hx, cx = rnn(input[i], (hx, cx))
            # 将每个word作为输入的输出存起来,相当于LSTM中的out
            output.append(hx)
    output = torch.stack(output, dim=0)

    以上就是关于“pytorch中使用LSTM实例分析”这篇文章的内容,相信大家都有了一定的了解,希望小编分享的内容对大家有帮助,若想了解更多相关的知识内容,请关注亿速云行业资讯频道。

    向AI问一下细节

    免责声明:本站发布的内容(图片、视频和文字)以原创、转载和分享为主,文章观点不代表本网站立场,如果涉及侵权请联系站长邮箱:is@yisu.com进行举报,并提供相关证据,一经查实,将立刻删除涉嫌侵权内容。

    AI