上一页 1 ··· 9 10 11 12 13 14 15 16 17 ··· 22 下一页
摘要: 表示范围的命令: l: 表示一个字符,可以于操作符组合使用; aw :表示一个单词; 不会count 空格; 前面可以加数字的; iw: 选中一些单词, 会包括空格; 前面可以加数字; ap: 表示一个段落,与操作符组合使用; 跳转的指令: G键是跳转命令。默认跳到最后一行;前面可以加数字的;表示跳 阅读全文
posted @ 2017-06-05 11:39 殷大侠 阅读(3555) 评论(0) 推荐(0) 编辑
摘要: 什么为一次操作? 从进行插入模式开始,直到返回普通模式为止,在此期间的任何修改都视为一次操作; 使用 u 可以撤销最新的修改; 所以呢,控制好在插入模式的操作就可以控制好撤销命令的粒度; 另外,最好在插入模式下避免使用上下左右进行移动,因为它们都可以产生一个新的插入块; 还有,在插入模式下,进行换行时,我们可以避免使用回车键,而是先退出插入模式再添加下一行; 技巧1 : 构造可... 阅读全文
posted @ 2017-06-05 11:39 殷大侠 阅读(390) 评论(0) 推荐(0) 编辑
摘要: 致网友:如果你不小心检索到了这篇文章,请不要看,因为很烂。写下来用于作为我的笔记。 2014年,在LSVRC14(large-Scale Visual Recognition Challenge)中,Google团队凭借 googLeNet 网络取得了 the new state of the art. 论文 Going deeper with convolutions 就是对应该网络发表的一... 阅读全文
posted @ 2017-06-01 21:15 殷大侠 阅读(9516) 评论(0) 推荐(0) 编辑
摘要: 来自:系统之家:http://www.xitongzhijia.net/xtjc/20160316/69125.html 我们在网络上下载或在U盘中复制的文件正常来说和源文件是一样的,但有时在下载或拷贝出错的情况下,我们会发现它和源文件是不一样的,这主要体现在SHA1和MD5的哈希值不同。SHA1和MD5都是可唯一确定文件的重要标志,只有SHA1或者MD5值一致才能保证下载到的文件是正确... 阅读全文
posted @ 2017-05-31 09:32 殷大侠 阅读(1731) 评论(0) 推荐(0) 编辑
摘要: 1. zip()函数 它的作用是从参数中按顺序一一抽出子参数组出一个新的tuple. 直接看例子: >>> mean = np.array([2, 5, 4]) >>> out = zip('RGB', mean, 'ABC') >>> out [('R', 2, 'A'), ('G', 5, 'B'), ('B', 4, 'C')] 注意:当输入的参数的长度不同时, zip()函数会截取最... 阅读全文
posted @ 2017-05-31 08:53 殷大侠 阅读(1098) 评论(0) 推荐(0) 编辑
摘要: 如果万一大家不小心检索到了本篇文章,为了不浪费大家的时间,请大家直接看 http://blog.csdn.net/itplus/article/details/19168937, 写在很好,太好好好!!!(本篇内容仅仅用于我的自我复习) 长什么样? 它长这样子: 它的特点: 在给定可见层单元状态(输 阅读全文
posted @ 2017-05-19 09:05 殷大侠 阅读(748) 评论(0) 推荐(0) 编辑
摘要: 看了好多相关的知识,大致了解了一下马尔可夫链-蒙特卡罗采样理论,有必要记来下来。 蒙特卡罗积分:(来自:http://blog.csdn.net/itplus/article/details/19168937) 下面的写的很让人明白:好好理解一下,第一次感觉到积分与统计学的联系。 利用蒙特卡罗方法求积分的重点就是怎么如何采样指定的分布。。。。简单的分布如均匀分布我们有方法可以采样,... 阅读全文
posted @ 2017-05-17 19:54 殷大侠 阅读(2043) 评论(0) 推荐(0) 编辑
摘要: 这是一篇发表于2008年初的论文。 文章主要讲了利用 denosing autoencoder来学习 robust的中间特征。。进上步,说明,利用这个方法,可以初始化神经网络的权值。。这就相当于一种非监督学习的方法来训练神经网络。 当我们在用神经网络解决各种识别任务时,如果我们想要网络的性能更好,就需要更深层或更wider的神经网络来建模,Model出更复杂的分布。 网络变深以后,如何训练是... 阅读全文
posted @ 2017-05-12 22:14 殷大侠 阅读(1312) 评论(0) 推荐(0) 编辑
摘要: 信息熵: 1. 热力学中的热熵是表示分子状态混乱程度的物理量。香农用信息熵的概念来描述信源的不确定度。 2. ;两个独立符号所产生的不确定性应等于各自不确定性之和 3. 在信源中,考虑的不是某一单个符号发生的不确定性,而是要考虑这个信源所有可能发生情况的平均不确定性。 对于当个符号,它的概率为p时, 阅读全文
posted @ 2017-05-11 21:50 殷大侠 阅读(15258) 评论(0) 推荐(0) 编辑
摘要: legend()的一个用法: 当我们有多个 axes时,我们如何把它们的图例放在一起呢?? 我们可以这么做: import matplotlib.pyplot as plt import numpy as np x = np.arange(1, 11) fig = plt.figure(1) ax1 = plt.subplot(2, 1, 1) ax2 = plt.subplot(2, 1, ... 阅读全文
posted @ 2017-05-01 16:24 殷大侠 阅读(96818) 评论(0) 推荐(1) 编辑
上一页 1 ··· 9 10 11 12 13 14 15 16 17 ··· 22 下一页