2021年8月8日
摘要:
参考1: https://github.com/zengbin93/blog/blob/master/notes_deeplearning.ai/14%20%E7%AC%AC%E4%B8%80%E8%AF%BE_%E7%AC%AC%E5%9B%9B%E5%91%A8%E5%AD%A6%E4%B9%A
阅读全文
posted @ 2021-08-08 09:33
一杯明月
阅读(367)
推荐(0)
2021年8月7日
摘要:
https://www.bilibili.com/video/BV1FT4y1E74V?p=10 损失函数: (y(hat),y)=(预测值,标签值) 损失函数衡量了参数w,b在训练集上的训练效果。 如上图:w,b表示空间参数(spatial parameters),这里当作是自变量,找到参数w,b
阅读全文
posted @ 2021-08-07 23:46
一杯明月
阅读(107)
推荐(0)
摘要:
第一课_第三周学习笔记 来源: https://www.jianshu.com/p/ea9b63b7c044 或者: https://github.com/zengbin93/blog/blob/master/notes_deeplearning.ai/13%20%E7%AC%AC%E4%B8%80
阅读全文
posted @ 2021-08-07 12:34
一杯明月
阅读(473)
推荐(0)
2021年8月6日
摘要:
来源:https://zhuanlan.zhihu.com/p/82354021 Batch Normalization (BN) 的定义 批归一化就是让一组数据的均值变为0,标准差变为1. 给定 维向量 ,在每个特征上(即针对每一个维度而言)独立地减均值、除以标准差 深度学习中,以 batch 为
阅读全文
posted @ 2021-08-06 22:03
一杯明月
阅读(1230)
推荐(0)
摘要:
https://stackoverflow.com/questions/45693020/is-tf-layers-dense-a-single-layer tf.layers.dense is only one layer with a amount of nodes. You can check
阅读全文
posted @ 2021-08-06 21:29
一杯明月
阅读(619)
推荐(0)
摘要:
前向算法的作用是计算输入层结点对隐藏层结点的影响,也就是说,把网络正向的走一遍:输入层—->隐藏层—->输出层计算每个结点对其下一层结点的影响。 是一个简单的加权求和。 这里稍微说一下,偏置项和权重项的作用是类似的,不同之处在于权重项一般以乘法的形式体现,而偏置项以加法的形式体现。
阅读全文
posted @ 2021-08-06 19:41
一杯明月
阅读(472)
推荐(0)
2021年8月4日
摘要:
https://www.it610.com/article/5616085.htm Ubuntu右上角有一个红色的圆,中间有一条白色的横线,鼠标移上去提示:发生了一个错误,请通过右键菜单运行软件包管理器或通过终端执行apt-get来查看具体错误。错误信息:“错误:已损坏个数>0“,这通常意味着您安装
阅读全文
posted @ 2021-08-04 21:04
一杯明月
阅读(1961)
推荐(0)
摘要:
https://stackoverflow.com/questions/231767/what-does-the-yield-keyword-do?page=1&tab=votes#tab-top To understand what yield does, you must understand
阅读全文
posted @ 2021-08-04 19:41
一杯明月
阅读(39)
推荐(0)
2021年8月3日
摘要:
Python有很多很有用的内建函数,今天就讲all()和any()这两个函数:这两个函数的参数都是iterable,也就是为list或者tuple all(iterable): >>> help(all) Help on built-in function all in module __built
阅读全文
posted @ 2021-08-03 14:16
一杯明月
阅读(1320)
推荐(0)
2021年8月2日
摘要:
第1步: 第2步: 在2的位置按delete键。
阅读全文
posted @ 2021-08-02 20:34
一杯明月
阅读(2015)
推荐(0)