长期和短期记忆(LSTM)网络是最先进的长期序列建模工具
摘要:最近哪里都去不了,还是在家学习点什么好,人工智能最近很火,来学学吧。长期和短期记忆(LSTM)网络是最先进的长期序列建模工具。然而,很难理解LSTM学到了什么,也很难研究他们犯某些错误的原因。
阅读全文
posted @
2020-01-28 21:36
跑得快
阅读(1094)
推荐(0)
抽象理解切片递归神经网络(SRNN)的结构
摘要:过年这几天只能待家里了,最近几个月,上海交通大学的研究人员提出了切片递归神经网络(SRNN)的结构,该结构在不改变循环单元的情况下比RNN结构快135倍。这种操作,就像踩在一个热轮子上,是怎么发生的?
阅读全文
posted @
2020-01-25 23:30
跑得快
阅读(1048)
推荐(0)
通俗点讲解 RNN、LSTM、GRU
摘要:与传统的前向神经网络和卷积神经网络不同,递归神经网络(RNN)是一种擅长处理文本、时间序列、股票市场等序列数据的模型。主要介绍了循环神经网络中RNN、LSTM、GRU几个重要模型的发展过程和结构差异,并详细推导了RNN梯度爆炸和梯度消失的原因。
阅读全文
posted @
2020-01-19 16:57
跑得快
阅读(1479)
推荐(0)
2019年最强的自然语言处理模式BERT
摘要:2019年是最强的自然语言处理模型BERT(注释修饰符2018,因为最近出现的由OpenAI研究人员训练的超大规模15亿参数模型进一步打破了记录,打开了一个1.17亿小模型和代码:https://github.com/openai/gpt-2,感兴趣的读者可以阅读)
阅读全文
posted @
2020-01-18 00:28
跑得快
阅读(545)
推荐(0)
LSTM训练机器理解人类交流的进展
摘要:机器学习领域最吸引人的任务之一是训练机器理解人类交流的进展。在机器学习领域,这个分支被称为自然语言处理。本文试图解释自然语言处理的基本知识以及随着深入学习和神经网络的发展,自然语言处理取得的快速进展。
阅读全文
posted @
2020-01-16 21:01
跑得快
阅读(248)
推荐(0)
人工智能自动写作软件基于通用预训练方法MASS
摘要:自2018年以来,预训练无疑是自然语言处理领域最热门的研究课题之一。通过使用BERT、GPT和XLNet等通用语言模型自动写作软件,该领域的研究人员在自然语言理解方面取得了许多重大突破。
阅读全文
posted @
2020-01-14 13:35
跑得快
阅读(842)
推荐(0)