摘要: 基础知识 1. 感受野计算--为什么VGG模型在feature层的感受野是228 = 196+16*2 https://www.cnblogs.com/objectDetect/p/5947169.html 该链接中还给出计算感受野的python小程序。 我们接下来的分析以Faster rcnn网络 阅读全文
posted @ 2020-05-25 01:57 dario0558 阅读(389) 评论(0) 推荐(0)
摘要: https://github.com/prakhardogra921/Batch-Normalization/blob/master/Batch_Normalization_Exercises.ipynb https://github.com/prakhardogra921/Batch-Normal 阅读全文
posted @ 2020-04-28 22:37 dario0558 阅读(393) 评论(0) 推荐(0)
摘要: BN的作用。 可以看到,如果不使用gamma和beta,激活值基本上会在[0.1 0.9]这个近似线性的区域中,这与深度神经网络所要求的“多层非线性函数逼近任意函数”的要求不符,所以引入gamma和beta还是有必要的,深度网络会自动决定使用哪一段函数(这是我自己想的,其具体作用欢迎讨论)。 对于R 阅读全文
posted @ 2020-04-15 17:11 dario0558 阅读(262) 评论(0) 推荐(0)
摘要: https://blog.csdn.net/u014796085/article/details/83352821 阅读全文
posted @ 2020-04-01 15:39 dario0558 阅读(61) 评论(0) 推荐(0)
摘要: batch normalization:批处理。 用于隐藏层的在进行激活函数处理前的归一化处理。 https://www.jianshu.com/p/b38e14c1f14d https://blog.csdn.net/xc_zhou/article/details/85710551 https:/ 阅读全文
posted @ 2020-01-21 13:50 dario0558 阅读(113) 评论(0) 推荐(0)
摘要: 恢复内容开始 tensorflow基础函数合辑 import tensorflow as tf *tf.constant* 函数定义:tf.constant(data,shape=[]) 参数说明:data--输入数据,shape--reshape后的形状。使用的reshape中的最低维度优先填充原 阅读全文
posted @ 2020-01-19 20:46 dario0558 阅读(267) 评论(0) 推荐(0)
摘要: CNN & RNN http://colah.github.io/ http://colah.github.io/posts/2014-07-Conv-Nets-Modular/ http://colah.github.io/posts/2014-07-Understanding-Convoluti 阅读全文
posted @ 2020-01-14 10:32 dario0558 阅读(110) 评论(0) 推荐(0)
摘要: 深度学习中确实用不到CV。 所以学习CV的目的还是要知道CV能做什么,适用于哪些场景(主要用于数据集小,容易过拟合) 。 CV目的:model selection 可以参考这篇回答:https://stats.stackexchange.com/questions/52274/how-to-choo 阅读全文
posted @ 2020-01-10 00:48 dario0558 阅读(935) 评论(0) 推荐(0)
摘要: pandas 强大的数据处理工具学习目标:无需记忆确切的api名称,需要知识pandas能做什么,并根据实际需要使用的功能可以快速索引查询。 速查手册: (1) pandas中文给出的教学文档 https://www.pypandas.cn/docs/getting_started/10min.ht 阅读全文
posted @ 2019-12-21 19:59 dario0558 阅读(944) 评论(0) 推荐(0)