as火柴人

导航

2019年3月8日 #

词嵌入

摘要: 复习的时候可以看这个博客:https://blog.csdn.net/haoyutiangang/article/details/81213697 2.5 学习词嵌入 在构造语言模型里面:往往不是由一句话里面所有的词来预测下一个词,而是有一定的历史窗口(窗口的大小是一个超参数) 当窗口是4的时候:输 阅读全文

posted @ 2019-03-08 22:24 as火柴人 阅读(572) 评论(0) 推荐(0)

线程

摘要: 进程:包括代码,数据,内核状态,寄存器;线程:状态,寄存器和堆栈。 线程本身不是程序,是运行在程序(进程)之中的,多线程是指一个程序中包含多个执行流; 进程:是指一段程序从产生,执行到完毕的一个完整的过程;在单服务器中,线程的执行并不是并发的,是来回切换的,但是切换时间短所以可以看成是并发的 同步状 阅读全文

posted @ 2019-03-08 10:23 as火柴人 阅读(113) 评论(0) 推荐(0)

2019年3月6日 #

理解RNN

摘要: 摘自:https://zybuluo.com/hanbingtao/note/541458 语言模型就是这样的东西:给定一个一句话前面的部分,预测接下来最有可能的一个词是什么。 语言模型是对一种语言的特征进行建模 RNN理论上可以往前看(往后看)任意多个词。 循环层: 输出层: 循环层和全连接层的区 阅读全文

posted @ 2019-03-06 21:53 as火柴人 阅读(131) 评论(0) 推荐(0)

2019年3月4日 #

54 5.6 5.7

摘要: (网课的顺序: 基础1:https://www.bilibili.com/video/av41364136?from=search&seid=14324352533166077481 基础2:https://www.bilibili.com/video/av41362900?from=search& 阅读全文

posted @ 2019-03-04 22:01 as火柴人 阅读(124) 评论(0) 推荐(0)

2019年3月1日 #

算法

摘要: 算法范式 http://www.cnblogs.com/gaochundong/p/algorithmic_paradigms.html Dijkstra算法: https://www.jianshu.com/p/ff6db00ad866 P7 哈希表 动态集合:能做增删改的集合,静态集合:只能做查 阅读全文

posted @ 2019-03-01 17:05 as火柴人 阅读(142) 评论(0) 推荐(0)

2019年2月27日 #

4.4 4.5

摘要: 4.4 对象的周期 产生:声明初始化:分配内存空间初始化成员变量;执行类成员声明时的简单赋值;执行构造方法,对象变量的初始化 使用:对象变量的访问:get,set 方法 清除:自动回收,以及gc方法 4.5 类的继承与多态 子类不能继承的:带private;构造方法 this关键字,是声明实例变量, 阅读全文

posted @ 2019-02-27 11:25 as火柴人 阅读(171) 评论(0) 推荐(0)

2019年2月25日 #

leetcode(java)

摘要: 148 阅读全文

posted @ 2019-02-25 21:36 as火柴人 阅读(98) 评论(0) 推荐(0)

6.8 lambda方法 6.9 枚举类

摘要: 6.9枚举 对于对象个数有限的类可以用枚举类来避免创建对象的随意性。 枚举类关键字enum,是一种特殊的类;构造器只能用private修饰,枚举类的所有实例在第一行举出(系统默认用public static final修饰)。 阅读全文

posted @ 2019-02-25 17:21 as火柴人 阅读(139) 评论(0) 推荐(0)

序列模型

摘要: 第一周 1.2 命名实体识别,符号 1.3 循环神经网络模型 注意前向传播公式和之前的不一样了。 前向传播公式简写: 1.4 反向传播 这里的y是一种概率?y<t>的值就是0和1,但是y`的值是0-1中一个概率值,这里用交叉熵主要是让y`的值要么接近于1,要么接近于0?? 总的损失函数不用求平均了直 阅读全文

posted @ 2019-02-25 11:26 as火柴人 阅读(241) 评论(0) 推荐(0)

2019年2月15日 #

卷积神经网络(第二周:深度神经网络;第三周:目标检测)

摘要: 2.1 -2.2 实例分析 经典实例:LeNet-5;AlexNet;VGG;ResNet;Inception LRN现在都不用了 池化可以减小图片的像素,把某一点附近的最大匹配值留下。这样就做到不是逐一像素匹配,而是大概的区域匹配 卷积之后的relu非线性,感觉是为了让没有匹配上的区域值更小。 2 阅读全文

posted @ 2019-02-15 19:02 as火柴人 阅读(238) 评论(0) 推荐(0)