会员
周边
众包
新闻
博问
闪存
赞助商
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
滑天下之大j
博客园
首页
新随笔
联系
订阅
管理
随笔 - 5
文章 - 0
评论 - 0
阅读 -
2901
2020年8月25日
Transformer 学习笔记
摘要: 1. Introduction Transformer 是2017年论文 “Attention Is All You Need” 中提出的 seq2seq 模型,该模型最大的贡献是舍弃了过去 seq2seq 模型中大量使用的RNN(包括LSTM和GRU),而是完全基于 attention 机制,使
阅读全文
posted @ 2020-08-25 11:42 滑天下之大j
阅读(471)
评论(0)
推荐(0)
2020年8月24日
pytorch 实现 Seq2Seq with attention 机器翻译
摘要: 本文主要介绍了用 pytorch 实现Seq2Seq with attention 机器翻译任务,基于我之前写的 pytorch 实现简单的 Seq2Seq 机器翻译任务 。算法理论可以阅读论文“NEURAL MACHINE TRANSLATION BY JOINTLY LEARNING TO AL
阅读全文
posted @ 2020-08-24 16:25 滑天下之大j
阅读(754)
评论(0)
推荐(0)
2020年8月9日
pytorch 实现 Seq2Seq 机器翻译
摘要: 本文主要介绍了用 pytorch 实现简单的 Seq2Seq 机器翻译任务,参考了 李宏毅老师的深度学习课程 的作业八,数据集也来自于此,视频课程可以在B站学习(https://www.bilibili.com/video/BV1JE411g7XF?p=53)。算法理论可以阅读论文"Sequence
阅读全文
posted @ 2020-08-09 11:29 滑天下之大j
阅读(830)
评论(0)
推荐(0)
2020年8月4日
NEURAL MACHINE TRANSLATION BY JOINTLY LEARNING TO ALIGN AND TRANSLATE (Seq2Seq with Attention)论文阅读
摘要: 1. Introduction 这篇论文首次提出了NLP中的Attention机制,该机制被提出的目的是为了解决Encoder-Decoder神经机器翻译模型中长句子的翻译效果差的问题。作者希望通过Attention机制将输入和输出句子进行“对齐”,但是不同语言的语法结构相差很大,并没有很好的严格对
阅读全文
posted @ 2020-08-04 20:07 滑天下之大j
阅读(312)
评论(0)
推荐(0)
2020年8月3日
Sequence to Sequence Learning with Neural Networks (Seq2Seq)论文阅读
摘要: 1. Introduction 本文提出了一种端到端的序列学习方法,并将其用于英语到法语的机器翻译任务中。使用多层LSTM将输入序列映射为固定维数的表示向量,然后使用另一个多层LSTM从该向量解码得到目标序列。作者还提出,颠倒输入序列的单词序列可以提高LSTM的性能,因为这在源和目标序列之间引入了许
阅读全文
posted @ 2020-08-03 22:40 滑天下之大j
阅读(534)
评论(0)
推荐(0)
公告
昵称:
滑天下之大j
园龄:
4年10个月
粉丝:
1
关注:
0
+加关注
<
2025年6月
>
日
一
二
三
四
五
六
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
1
2
3
4
5
6
7
8
9
10
11
12
搜索
常用链接
我的随笔
我的评论
我的参与
最新评论
我的标签
随笔分类
NLP学习(5)
随笔档案
2020年8月(5)
阅读排行榜
1. pytorch 实现 Seq2Seq 机器翻译(830)
2. pytorch 实现 Seq2Seq with attention 机器翻译(754)
3. Sequence to Sequence Learning with Neural Networks (Seq2Seq)论文阅读(534)
4. Transformer 学习笔记(471)
5. NEURAL MACHINE TRANSLATION BY JOINTLY LEARNING TO ALIGN AND TRANSLATE (Seq2Seq with Attention)论文阅读(312)
点击右上角即可分享