摘要: 输入n个整数,输出k个最小的数。例如输入4,5,1,6,2,7,3,8这8个数,则最小的4个数字是1,2,3,4。利用堆排序 阅读全文
posted @ 2018-05-18 23:19 象牙山-山鸡 阅读(200) 评论(0) 推荐(0) 编辑
摘要: 残差网络的设计目的 随着网络深度增加,会出现一种退化问题,也就是当网络变得越来越深的时候,训练的准确率会趋于平缓,但是训练误差会变大,这明显不是过拟合造成的,因为过拟合是指网络的训练误差会不断变小,但是测试误差会变大。为了解决这种退化现象,ResNet被提出。我们不再用多个堆叠的层直接拟合期望的特征 阅读全文
posted @ 2018-05-17 20:00 象牙山-山鸡 阅读(11671) 评论(0) 推荐(0) 编辑
摘要: 输入一个链表,从尾到头打印每个节点的值。 阅读全文
posted @ 2018-05-15 23:59 象牙山-山鸡 阅读(174) 评论(0) 推荐(0) 编辑
摘要: 输入一个整数,输出该数二进制中1的个数。 分析:把一个整数减去1,再和原整数做与运算,会把该整数最右边的一个1变为0,那么一个整数中有多少个1,就能进行多少次这样的操作。 阅读全文
posted @ 2018-05-05 00:46 象牙山-山鸡 阅读(107) 评论(0) 推荐(0) 编辑
摘要: 输入两个单调递增的链表,输出两个链表合成的链表。 阅读全文
posted @ 2018-05-03 01:36 象牙山-山鸡 阅读(143) 评论(0) 推荐(0) 编辑
摘要: GoogleNet设计的目的 GoogleNet设计的初衷是为了提高在网络里面的计算资源的利用率。 卷积的稀疏性 卷积的稀疏性是指卷积通常对应一个非常稀疏的矩阵,传统的神经网络是全连接的,后面每一层的单元都与它之前层的输入单元之间存在权重连接,而在卷积运算中,卷积核的尺寸是远小于输入图像的大小,一个 阅读全文
posted @ 2018-05-01 22:15 象牙山-山鸡 阅读(800) 评论(0) 推荐(0) 编辑
摘要: 题目:定义一个函数,输入链表的头结点,反转该链表,并返回反转后链表的头结点. 由于在单链表中之指针是单向的,则将当前节点的指针指向它的前一个节点时,该节点与后一个节点之间会断开,此时我们要事先保存当前节点的下一个节点。 阅读全文
posted @ 2018-04-25 21:00 象牙山-山鸡 阅读(121) 评论(0) 推荐(0) 编辑
摘要: VGG网络的基本结构 如图所示,从A到E网络的深度是逐渐增加的,在A中有11个权重层(8个卷积层,3个全连接层),在E中有19个权重层(16个卷积层,3个全连接层),卷积层的宽度是十分小的,开始时在第一个卷积层只有64个filter,当经过最大池化后,倍增filter的个数,最后的卷积层是512个, 阅读全文
posted @ 2018-04-25 20:29 象牙山-山鸡 阅读(639) 评论(0) 推荐(0) 编辑
摘要: AlexNet的基本结构 Alexnet是由5个卷积层和三个全连接层组成,一共8个权重层(池化层不是权重层因为其没有参数),其中ReLU激活函数作用在每个卷积层和全连接层上,在第一个卷积层和第二个卷积层后面连接一个局部响应规范化层,最大池化层作用在第一个卷积层,第二个卷积层和第五个卷积层的输出上。 阅读全文
posted @ 2018-04-20 13:40 象牙山-山鸡 阅读(4714) 评论(0) 推荐(0) 编辑
摘要: 深度学习 就是更深层次的学习,它是机器学习的一个子领域,就我个人理解而言,它就是一个深度神经网络。 深度神经网络 就是拥有很多隐藏层的神经网络,通常只要隐藏层超过2个,我们就可以把这个神经网络定义为深度神经网络,当然,隐藏层的激活函数应该是非线性的,如果是线性的,即使10000层,它的学习能力也仅仅 阅读全文
posted @ 2018-04-16 19:27 象牙山-山鸡 阅读(336) 评论(0) 推荐(0) 编辑