更具体地说,使用的是遗忘网关、输入网关和输出网关:i=σ(uixt+wiht-1+bi)f=σ(ufxt+wfht-1+bf)o=σ(uoxt+woht-1+bo)(3)UWB重量(常数)。逻辑函数σ(z)将闸门映射到(0,1)。“过滤”规格如下:ht=tanh(ct)oct=ct-1f+▄cti▄ct=tanh(ucxt+wcht-1+bc)(4)UCWCBCHTCTCT-1fc由输入网关过滤。在下一步中,候选值▄表示节点在前一时间步的输入XT和输出的组合-Thetahn函数映射为(-1,1),因此允许输出或更新不同时间步之间的序列。完整的LSTM网络由许多LSTM节点和规格组成,如下所示:^y=σ(a)=σ(Whf(ht=T)+ch)(5)ff(z)=max(z,0)aht=tt在训练过程中,前面隐藏的LSTM层中学习的特征ht=T以概率p随机退出,训练完成时,参数以相同的概率重新缩放。LSTM层中的节点数和丢失率都是可以调整的超参数示例。(4) CNN{4,5}内核。输入层是零填充的,卷积很窄/有效。“最大池”是在窗口大小为2的情况下执行的,与传统的步幅相同。最后一个完全连接的层由100个神经元组成。CNN设计预印本-2019年3月5日x={x,…,xt}={I,will,…,!}每个集合中的k={k,…,k}x3:5={x3,1,x3,2,x4,1,…,x5,2}cc^c=最大{c,c}}通过具有2个内核和特征映射来说明。具有多个卷积层的可能性如图1所示,由三个水平点(…)表示。该图还表明,CNN中最后一个完全连接的层是通过连接最后一个最大池层获得的。