摘要: public static class Node { public int value; public Node left; public Node right; public Node(int data) { this.value = data; } } public static boolean 阅读全文
posted @ 2020-01-30 15:03 砍柴人Ryan 阅读(607) 评论(0) 推荐(0) 编辑
摘要: 自然语言处理(NLP) NLP中最细粒度的是词语(word),词语组成句子,句子再组成段落、章节和文档。所以NLP的核心问题就是:如何理解word 如何理解word 由于目标是与计算机对接,其核心就是如何给计算机描述一个word,有以下两种描述方式: One-hot Representation D 阅读全文
posted @ 2019-10-21 08:54 砍柴人Ryan 阅读(305) 评论(0) 推荐(0) 编辑
摘要: 前言 此为本人学习《百面机器学习——算法工程师带你去面试》的学习笔记,详细请参考《百面机器学习》 第一章 特征工程 特征工程,是对原始数据进行一系列工程处理,将其提炼为特征,作为输入供算法和模型使用。从本质上讲,特征工程是一个表示和展现数据的过程。在实际工作中,特征工程旨在去除原始数据的杂质和冗余, 阅读全文
posted @ 2019-10-21 08:51 砍柴人Ryan 阅读(352) 评论(0) 推荐(0) 编辑
摘要: 一、用new申请内存空间 二、用malloc申请内存空间 三、使用vector创建一个二维数组 或者 阅读全文
posted @ 2019-05-30 19:56 砍柴人Ryan 阅读(19879) 评论(0) 推荐(3) 编辑
摘要: 前言 本文为学习《深度学习入门》一书的学习笔记,详情请阅读原著 五、CNN的实现 搭建进行手写数字识别的 CNN。这里要实现如图 7-23 所示的 CNN。 图 7-23 简单 CNN 的网络构成 如图 7-23 所示,网络的构成是“Convolution - ReLU - Pooling -Aff 阅读全文
posted @ 2019-05-12 18:56 砍柴人Ryan 阅读(2128) 评论(3) 推荐(0) 编辑
摘要: 前言 本文学学习深度学习入门一书的学习笔记,详情请阅读原著 三、池化层 池化是缩小高、长方向上的空间的运算。比如,如图 7-14 所示,进行将 2 × 2 的区域集约成 1 个元素的处理,缩小空间大小。 图 7-14 Max 池化的处理顺序 图 7-14 的例子是按步幅 2 进行 2 × 2 的 M 阅读全文
posted @ 2019-05-12 18:55 砍柴人Ryan 阅读(982) 评论(0) 推荐(0) 编辑
摘要: 前言 本文为学习《深度学习》入门一书的学习笔记,详情请阅读原著 一、整体结构 卷积神经网络(Convolutional Neural Network,CNN)。CNN被用于图像识别、语音识别等各种场合。 CNN和之前介绍的神经网络一样,可以通过组装层来构建,但是,CNN中出现了卷积层(Convolu 阅读全文
posted @ 2019-05-12 18:55 砍柴人Ryan 阅读(704) 评论(0) 推荐(0) 编辑
摘要: 与学习相关的技巧 前言 本文为本人学习深度学习入门一书的学习笔记,详情请阅读原著 四、正则化 机器学习的问题中,过拟合是一个很常见的问题。过拟合指的是只能拟合训练数据,但不能很好地拟合不包含在训练数据中的其他数据的状态。机器学习的目标是提高泛化能力,即便是没有包含在训练数据里的未观测数据,也希望模型 阅读全文
posted @ 2019-05-12 18:55 砍柴人Ryan 阅读(493) 评论(0) 推荐(0) 编辑
摘要: 误差反向传播法 前言 此为本人学习《深度学习入门》的学习笔记,详情请阅读原书 数值微分虽然简单,也容易实现,但是缺点是计算上比较费时间,本章介绍一个高效计算权重参数的梯度的方法--误差反向传播法 一、计算图 计算图将计算过程用图形表示出来。这里说的图形是数据结构图,通过多个节点和边表示(连接节点的直 阅读全文
posted @ 2019-05-12 18:54 砍柴人Ryan 阅读(2966) 评论(0) 推荐(0) 编辑
摘要: 误差反向传播法 前言 此为本人学习《深度学习入门》的学习笔记 四、简单层的实现 本节将用 Python 实现前面的购买苹果的例子。这里,我们把要实现的计算图的乘法节点称为“乘法层”(MulLayer),加法节点称为“加法层”(AddLayer)。 1、乘法层的实现 层的实现中有两个共通的方法(接口) 阅读全文
posted @ 2019-05-12 18:54 砍柴人Ryan 阅读(1052) 评论(0) 推荐(0) 编辑