分享
Chapter3
输入“/”快速插入内容
Chapter3
用户5190
2024年7月30日修改
1.循环神经网络
[
幻灯片
] [
笔记(第 5 和第 6 讲)
]
建议阅读:
1.
N-gram 语言模型
(教科书章节)
2.
循环神经网络的不合理有效性
(博客文章概述)
3.
序列建模:循环和递归神经网络
(第 10.1 和 10.2 节)
4.
论乔姆斯基与统计学习的两种文化
5.
序列建模:循环和递归神经网络
(第 10.3、10.5、10.7-10.12 节)
6.
使用梯度下降来学习长期依赖关系非常困难
(原始消失梯度论文之一)
7.
关于训练循环神经网络的难度
(梯度消失问题的证明)
8.
消失梯度 Jupyter Notebook
(前馈网络演示)
9.
理解 LSTM 网络
(博客文章概述)
2.序列到序列模型与机器翻译
[
幻灯片
] [
笔记(讲座 5 和 6)
]
建议阅读:
1.
统计机器翻译幻灯片,CS224n 2015
(讲座 2/3/4)
2.
统计机器翻译
(Philipp Koehn 著)
3.
BLEU
(原文)
4.
使用神经网络进行序列到序列学习
(原始 seq2seq NMT 论文)
5.
使用循环神经网络进行序列传导
(早期的 seq2seq 语音识别论文)
6.
通过联合学习对齐和翻译进行神经机器翻译
(原始 seq2seq+attention 论文)
7.
注意力机制和增强循环神经网络
(博客文章概述)
8.
神经机器翻译架构的大规模探索
(超参数选择的实用建议)
9.
利用混合词字模型实现开放词汇神经机器翻译
10.
重新审视基于字符的神经机器翻译的容量和压缩
作业 3
[
代码
]
[
讲义
]
[
latex 模板
]
[
overleaf 链接
]