课时01 01 自然语言处理初期发展_ev.mp4            108.0 MB
 课时02 02 序列数据研究_ev.mp4            129.0 MB
 课时03 03 文本预处理_ev.mp4            116.0 MB
 课时04 04 NLTK分词的使用_ev.mp4            113.0 MB
 课时05 04 jieba分词的使用_ev.mp4            86.9 MB
 课时06 06 语言模型之n元语法_ev.mp4            97.0 MB
 课时07 07 序列数据采样方法_ev.mp4            126.0 MB
 课时08 08 RNN理论讲解_ev.mp4            103.0 MB
 课时09 09 从零实现RNN之读取数据和初始化模型参数_ev.mp4            95.0 MB
 课时10 10 从零实现RNN之构建RNN模型_ev.mp4            54.6 MB
 课时11 11 从零实现RNN之预测代码_ev.mp4            53.7 MB
 课时12 12 从零实现RNN之训练_ev.mp4            175.0 MB
 课时13 13 pytorch实现RNN_ev.mp4            123.0 MB
 课时14 14 RNN反向传播数学细节_ev.mp4            107.0 MB
 课时15 15 LSTM原理和代码实现_ev.mp4            220.0 MB
 课时16 16 GRU原理和代码实现_ev.mp4            90.0 MB
 课时17 17 深度循环
神经网络_ev.mp4            53.0 MB
 课时18 18 双向循环神经网络_ev.mp4            52.1 MB
 课时19 19 机器翻译之数据处理_ev.mp4            157.0 MB
 课时20 20 encoder和decoder架构_ev.mp4            201.0 MB
 课时21 21 seq2seq之训练_ev.mp4            199.0 MB
 课时22 22 seq2seq之预测和评估_ev.mp4            148.0 MB
 课时23 23 注意力机制之Waston核回归_ev.mp4            276.0 MB
 课时24 24 注意力评分函数_ev.mp4            231.0 MB
 课时25 25 Bahdanau注意力_ev.mp4            212.0 MB
 课时26 26 多头注意力_ev.mp4            191.0 MB
 课时27 27 自注意力和位置编码_ev.mp4            153.0 MB
 课时28 28 transformer结构_ev.mp4            35.8 MB
 课时29 29 transformer模块之FFN_ev.mp4            52.9 MB
 课时30 30 transformer模块之addnorm_ev.mp4            80.3 MB
 课时31 31 transformer模块之encoderblock_ev.mp4            72.3 MB
 课时33 33 BERT结构_ev.mp4            56.0 MB
 课时35 35 BERT训练之数据预处理_ev.mp4            83.8 MB
 课时36 36 BERT训练环节_ev.mp4            33.5 MB
 课时37 37 BERT微调训练_ev.mp4            37.5 MB
 课时38 38 神经网络语言模型_ev.mp4            70.0 MB
 课时39 39 word2vec_ev.mp4            37.2 MB
 课时40 40 word2vec推导_ev.mp4            55.3 MB
 课时41 41 skip-gram的改进_ev.mp4            21.1 MB