全部版块 我的主页
论坛 提问 悬赏 求职 新闻 读书 功能一区 学道会
402 2
2019-12-28
2019/12/28
《No.27: p205-p209》《增强型分析-AI驱动的数据分析、业务决策与案例实践》读书笔记
第7章 深入探讨RNN
  7.2.3 LSTM的神经元及计算逻辑
   1.LSTM(Long Short-Term Memory),神经网络算法是RNN一个非常重要的变种。
   2.通过改造神经元的结构,使得状态的存储可以兼顾到较长的上下文。
   3.序列中每个元素同时作为输入提供给3个gate接口和一个常规输入接口。
  7.2.4 GRU的神经元与计算逻辑
   1.GRU(Gated Recurrent Unit)是在LSTM的基础上做了简化,将LSTM的3个gate变为只有update和rest gate两个gate。
   2.不再保留内部的状态存储单元,将输出也看作状态。
  7.2.5 深度RNN的原理
   1.将RNN神经元串联起来,构成深度RNN算法。
   2.RNN算法耗费大量时间,实际使用时,通常从简单的算法结构开始。
  7.2.6 RNN算法的输入输出形式
   1.类似Keras的算法包中提供了”return_sequences”的参数设置,用于控制LSTM返回的形式。
   2.实际使用时的输出型式
    1)one to one: 输入图像数据向量、输出图像类别的分类
    2)one to many: 用于生成图片文本描述的情况,即图像信息一次输入,而图像描述信息则通过序列的形式逐步计算而来。
    3)many to one: 将rreturn_sequences设置为false,在序列的最后才输出结果。如文本分类、情感分析等。
    4)异步many to many: 常见于不同事务之间的转换,如输入汉字翻译出英文
    5)同步many to many: 很常见的用法,基于时间序列的预测都是属于这种。
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

全部回复
2019-12-29 00:59:30
加油
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

2019-12-29 12:59:34
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

相关推荐
栏目导航
热门文章
推荐文章

说点什么

分享

扫码加好友,拉您进群
各岗位、行业、专业交流群