2017年2月21日

[置顶] JavaScript中国象棋程序(0) - 前言

摘要:“JavaScript中国象棋程序” 这一系列教程将带你从头使用JavaScript编写一个中国象棋程序。希望通过这个系列,我们对博弈程序的算法有一定的了解。同时,我们也将构建出一个不错的中国象棋程序。 程序的最终效果点击这里查看。 JavaScript中国象棋程序系列共有9个部分: 0、JavaS 阅读全文

posted @ 2017-02-21 21:31 royhoo 阅读(4603) 评论(6) 推荐(3) 编辑

2019年6月8日

解决coursera笔记本(ipynb)打不开的问题

摘要:最近在coursera听课,发现notebook打不开,一直显示加载中。 想到了可能被墙,苦于没有梯子。最后F12,发现有报错 Failed to load resource: net::ERR_CONNECTION_RESET 原来是访问了google的js库,导致网页加载失败。于是想到了可以 " 阅读全文

posted @ 2019-06-08 15:01 royhoo 阅读(2795) 评论(1) 推荐(2) 编辑

2018年6月19日

CS224n-作业1

摘要:这是斯坦福大学2017年《自然语言处理与深度学习》(CS22n)课程第一次作业及解答 阅读全文

posted @ 2018-06-19 11:38 royhoo 阅读(1012) 评论(0) 推荐(0) 编辑

2018年6月7日

神经网络及其训练

摘要:本文介绍人工神经网络及其训练方法,侧重于相关数学公式及其推导。 阅读全文

posted @ 2018-06-07 22:05 royhoo 阅读(14601) 评论(0) 推荐(3) 编辑

2018年6月6日

高级词向量表示

摘要:本文是在上文自然语言处理——词的表示基础上,引入一个更先进的词向量模型GloVe。然后介绍如何内在和外在地评估词向量。 1 Global Vectors for Word Representation (GloVe) 1.1 和先前方法的比较 上文介绍了两类获取词向量的方法。第一类基于计数和矩阵分解 阅读全文

posted @ 2018-06-06 15:52 royhoo 阅读(2929) 评论(0) 推荐(0) 编辑

2018年6月2日

自然语言处理——词的表示

摘要:本文简述了自然语言处理中,如何用向量表示一个词。并详细介绍了Word2vec,包括连续词袋模型,Skip-Gram模型,Negative Sampling,分层Softmax。 阅读全文

posted @ 2018-06-02 14:17 royhoo 阅读(2684) 评论(0) 推荐(1) 编辑

2018年5月29日

第十五章——自编码器(Autoencoders)

摘要:本文介绍了一种人工神经网络——自编码器 阅读全文

posted @ 2018-05-29 15:15 royhoo 阅读(45406) 评论(4) 推荐(14) 编辑

2018年5月26日

第十四章——循环神经网络(Recurrent Neural Networks)(第二部分)

摘要:本章介绍循环神经网络(Recurrent Neural Networks)的一些基本概念,面临的主要问题和解决方案(LSTM、GRU cells),以及如何使用TensorFlow实现RNN。最后窥探了机器翻译系统的架构。由于本章过长,分为两个部分,这是第二部分。 阅读全文

posted @ 2018-05-26 18:02 royhoo 阅读(4198) 评论(0) 推荐(1) 编辑

2018年5月25日

第十四章——循环神经网络(Recurrent Neural Networks)(第一部分)

摘要:本章介绍循环神经网络(Recurrent Neural Networks)的一些基本概念,面临的主要问题和解决方案(LSTM、GRU cells),以及如何使用TensorFlow实现RNN。最后窥探了机器翻译系统的架构。由于本章过长,分为两个部分,这是第一部分。 阅读全文

posted @ 2018-05-25 15:55 royhoo 阅读(19824) 评论(0) 推荐(4) 编辑

2018年5月23日

第十三章——卷积神经网络(CNN)

摘要:本文介绍了卷积神经网络CNN的来源,CNN的不同模块(卷积层、池化层),以及如何使用TensorFlow实现CNN。最后介绍了一些优秀的CNN架构。 阅读全文

posted @ 2018-05-23 17:57 royhoo 阅读(3293) 评论(2) 推荐(1) 编辑

2018年5月19日

第十一章——训练深度神经网络

摘要:介绍了在训练深度神经网络时,如何避免梯度消失(爆炸)问题,如何复用训练好的模型,如何加快训练,如何进行正则化约束。 阅读全文

posted @ 2018-05-19 21:39 royhoo 阅读(3706) 评论(1) 推荐(1) 编辑

导航