随笔分类 -  求职面试

摘要:目录 神经网络的卷积、池化、拉伸 LeNet网络结构 LeNet在MNIST数据集上应用 参考资料 LeNet是卷积神经网络的祖师爷LeCun在1998年提出,用于解决手写数字识别的视觉任务。自那时起,CNN的最基本的架构就定下来了:卷积层、池化层、全连接层。如今各大深度学习框架中所使用的LeNet 阅读全文
posted @ 2019-08-20 09:58 知识天地 阅读(1368) 评论(0) 推荐(0)
摘要:目录 Same最大值池化 多深度的same池化 Same平均值池化 Valid池化 参考资料 池化(Pooling)操作与卷积类似,取输入张量的每个位置的矩形领域内的最大值或平均值作为该位置的输出。 池化操作分为same池化和valid池化,同时还可以设置移动的步长 Same最大值池化 举例:4行4 阅读全文
posted @ 2019-08-20 09:57 知识天地 阅读(1428) 评论(0) 推荐(0)
摘要:目录 二维Full卷积 二维Same卷积 二维Valid卷积 三种卷积类型的关系 具备深度的二维卷积 具备深度的张量与多个卷积核的卷积 参考资料 二维卷积的原理和一维卷积类似,也有full卷积、same卷积和valid卷积。 举例:3*3的二维张量x和2*2的二维张量K进行卷积 二维Full卷积 F 阅读全文
posted @ 2019-08-20 09:56 知识天地 阅读(1274) 评论(0) 推荐(0)
摘要:目录 一维Full卷积 一维Same卷积 一维Valid卷积 三种卷积类型的关系 具备深度的一维卷积 具备深度的张量与多个卷积核的卷积 参考资料 一维卷积通常有三种类型:full卷积、same卷积和valid卷积,下面以一个长度为5的一维张量I和长度为3的一维张量K(卷积核)为例,介绍这三种卷积的计 阅读全文
posted @ 2019-08-20 09:54 知识天地 阅读(1438) 评论(0) 推荐(0)
摘要:目录 梯度消失 梯度爆炸 参考资料 以下图的全连接神经网络为例,来演示梯度爆炸和梯度消失: 梯度消失 在模型参数w都是(-1,1)之间的数的前提下,如果激活函数选择的是sigmod(x),那么他的导函数σ’(x)的值域为(0,0.25],即如下三项的范围都是(0,0.25] 那么w1的导数会有很多( 阅读全文
posted @ 2019-08-20 09:52 知识天地 阅读(969) 评论(0) 推荐(0)
摘要:目录 sigmod交叉熵 Softmax转换 Softmax交叉熵 参考资料 sigmod交叉熵 Sigmod交叉熵实际就是我们所说的对数损失,它是针对二分类任务的损失函数,在神经网络中,一般输出层只有一个结点。 假设y为样本标签,_y为全连接网络的输出层的值,那么,这个对数损失定义为 PS:这个是 阅读全文
posted @ 2019-08-20 09:49 知识天地 阅读(1018) 评论(0) 推荐(0)
摘要:目录 链式法则 逻辑回归的正、反向传播 逻辑回归的正、反向传播案例 全连接神经网络的正、反向传播 全连接神经网络的正、反向传播案例 参考资料 链式法则 类型一: 类型二: 类型三: 返回目录 逻辑回归的正、反向传播 逻辑回归可以看做最简单的神经网络,他只有一个神经元,损失函数选择的是对数损失,他的正 阅读全文
posted @ 2019-08-20 09:47 知识天地 阅读(886) 评论(0) 推荐(0)
摘要:目录 为什么要用激活函数 sigmod tanh ReLU LeakyReLU ReLU6 参考资料 为什么要用激活函数 在神经网络中,如果不对上一层结点的输出做非线性转换的话,再深的网络也是线性模型,只能把输入线性组合再输出(如下图),不能学习到复杂的映射关系,因此需要使用激活函数这个非线性函数做 阅读全文
posted @ 2019-08-20 09:46 知识天地 阅读(1815) 评论(0) 推荐(0)
摘要:目录 一元线性回归模型 一元线性回归代价函数图像 梯度下降求解 SGD、BGD、Mini-batchGD的特点 参考资料 在《深度学习面试题03改进版梯度下降法Adagrad、RMSprop、Momentum、Adam》中讲到了多种改进的梯度下降公式。而这篇文章和03篇描述的不是一个事情,我们从一个 阅读全文
posted @ 2019-08-20 09:45 知识天地 阅读(1050) 评论(0) 推荐(0)
摘要:目录 Adagrad法 RMSprop法 Momentum法 Adam法 参考资料 发展历史 标准梯度下降法的缺陷 如果学习率选的不恰当会出现以上情况 因此有一些自动调学习率的方法。一般来说,随着迭代次数的增加,学习率应该越来越小,因为迭代次数增加后,得到的解应该比较靠近最优解,所以要缩小步长η,那 阅读全文
posted @ 2019-08-20 09:44 知识天地 阅读(1154) 评论(0) 推荐(2)
摘要:目录 一元函数的梯度下降法 多元函数的梯度下降法 参考资料 梯度下降是一种迭代式的最优化手段,在机器学习中一般用于求目标函数的极小值点,这个极小值点就是最优的模型内部参数。相比求解析解的手段,GD的通用性更强,所以受到广泛的使用。 一元函数的梯度下降法 比如求解f(x)=(x-1)2的最小值点 梯度 阅读全文
posted @ 2019-08-20 09:41 知识天地 阅读(1155) 评论(0) 推荐(0)
摘要:目录 导数 偏导数 方向导数 梯度 参考资料 导数 导数反映的是函数y=f(x)在某一点处沿x轴正方向的变化率。 比如y=x2,在x=1处的导数=2。 导数是通过极限来定义的,某一点的导数=tanψ,但是前提是△x趋近于0,此时tanψ=tanα=该点导数,公式如下: 返回目录 偏导数 在多元函数中 阅读全文
posted @ 2019-08-20 09:40 知识天地 阅读(1070) 评论(0) 推荐(0)
摘要:http://collabedit.com/6ak5k 阅读全文
posted @ 2017-09-13 15:53 知识天地 阅读(2955) 评论(0) 推荐(0)
摘要:个人信息:不要写的太复杂,联系方式,姓名,毕业学校,学历求职目标:软件测试工程师自我评价:写的好一点,让人一看觉得你适合做测试职业技能:培训时学到总结归纳一下(本部分重点突出)其他技能:把自己会的写上项目经验:把培训时做过的项目全部一项一项的写清楚(本部分重点突出)教育经历:简单写一下在大学获得的奖 阅读全文
posted @ 2016-05-04 13:17 知识天地 阅读(3417) 评论(0) 推荐(0)
摘要:许多学习软件开发的学员不知道如何在个人简历中如何填写“项目经验”或“项 目描述”,最近接触的一些学习Java的学生在简历中,往往项 目经验及描述都只能寥寥几笔完事,这样的简历肯定是不吸引招聘企业 HR的。那么软件开发人员如何才能写好个人简历中的项目经验及描述呢? 首先你要知道招 聘企业想从你的项目经 阅读全文
posted @ 2016-05-04 13:10 知识天地 阅读(1610) 评论(0) 推荐(0)
摘要:三大互联网巨头公司,百度腾讯跟阿里如何划分级别?薪资待遇又有多少?除非身居其位,否则很难探知,但是等你到那个位置知道了,却又不能说,至少不能在公开场合谈论。接下来就为大家揭秘,百度、阿里与腾讯内部的级别划分跟薪资待遇。这是一个群众喜闻乐见却又讳莫如深的话题。 各个公司头衔名字都不一样,级别的数目也不 阅读全文
posted @ 2016-04-17 12:28 知识天地 阅读(7889) 评论(0) 推荐(0)
摘要: 阅读全文
posted @ 2016-04-17 11:25 知识天地 阅读(447) 评论(0) 推荐(0)
摘要:1.1 判断一个字符串中的字符是否唯一 1.2 字符串翻转 1.3 去除字符串中重复字符 1.8 利用已知函数判断字符串是否为另一字符串的子串 2.1 从链表中移除重复结点 2.2 实现一个算法从一个单链表中返回倒数第n个元素 2.3 给定链表中间某结点指针,删除链表中该结点 2.4 求由两个链表结 阅读全文
posted @ 2016-03-28 23:21 知识天地 阅读(850) 评论(0) 推荐(0)
摘要:#include #include #include using namespace std;struct node;typedef node *pNode;struct node { char data; pNode left, right;};string line;string::iterat... 阅读全文
posted @ 2015-01-13 13:30 知识天地 阅读(8711) 评论(0) 推荐(0)
摘要:C++中的const关键字的用法非常灵活,而使用const将大大改善程序的健壮性,本人根据各方面查到的资料进行总结如下,期望对朋友们有所帮助。Const是C++中常用的类型修饰符,常类型是指使用类型修饰符const说明的类型,常类型的变量或对象的值是不能被更新的。一、Const作用如下表所示:No.作用说明参考代码1可以定义const常量 const int Max = 100;2便于进行类型检查const常量有数据类型,而宏常量没有数据类型。编译器可以对前者进行类型安全检查,而对后者只进行字符替换,没有类型安全检查,并且在字符替换时可能会产生意料不到的错误void f(const int i 阅读全文
posted @ 2013-05-28 18:48 知识天地 阅读(290) 评论(0) 推荐(0)