2020年12月21日
摘要:
https://www.cnblogs.com/wang2825/articles/8696830.html
阅读全文
posted @ 2020-12-21 21:47
龑覭
阅读(59)
推荐(0)
摘要:
https://blog.csdn.net/dpengwang/article/details/84934197
阅读全文
posted @ 2020-12-21 21:46
龑覭
阅读(318)
推荐(0)
2020年11月14日
摘要:
激活函数就是在激活函数之前没有输出 z>0 才会有输出 激活函数不可导 于是提出了sigmoid函数 sigmoid函数是连续光滑的 且范围为0~1 和概率正好吻合 可以压缩很多的值 但是x在-∞和∞的时候倒数为0 因此当值处于这个区间的时候,loss长时间不变 Tanh激活函数 relu激活函数
阅读全文
posted @ 2020-11-14 23:17
龑覭
阅读(189)
推荐(0)
2020年11月13日
摘要:
恢复内容开始 1.小型常用数据集加载 1)常用数据集准备 通过keras.datasets直接加载进来 加载minst数据集: import tensorflow as tf (x,y),(x_test,y_test) = tf.keras.datasets.mnist.load_data() pr
阅读全文
posted @ 2020-11-13 00:00
龑覭
阅读(182)
推荐(0)
2020年11月11日
摘要:
1.where 根据坐标有目的性的选择 2.scatter_nd 根据坐标目的性的跟新 上述过程实现方法: 3.meshgrid 生成坐标系 用采样的点话出坐标示意图 实现:
阅读全文
posted @ 2020-11-11 21:49
龑覭
阅读(80)
推荐(0)
摘要:
1.clip_by_value 根据值进行裁剪 2.rule函数 3.clip_by_norm根据范数来裁剪 保持向量的方向不变,就是梯度不变,只改变向量的模 根据二范数 (可以使神经网络的梯度下降更好) 裁剪之前梯度明显过大 裁剪之后梯度明显变小
阅读全文
posted @ 2020-11-11 21:16
龑覭
阅读(86)
推荐(0)
摘要:
1.pad函数 2.tile函数
阅读全文
posted @ 2020-11-11 20:32
龑覭
阅读(118)
推荐(0)
posted @ 2020-11-11 20:05
龑覭
阅读(76)
推荐(0)
2020年11月9日
摘要:
1.tf.norm 张量的范数 2. tf.reduce_min/max 最大值最小值 3.tf.argmax/argmin 最大值的位置/最小值的位置 4.tf.equal 两个张量比较 5.tf.unique 张量元素中的独特值 1.张量的范数(这里考虑向量的范数) norm 默认二范数 2.最
阅读全文
posted @ 2020-11-09 19:49
龑覭
阅读(128)
推荐(0)
摘要:
1.张量的拼接 concat 要求: 拼接的维度可以不相等,其他的维度必须相等 2.创建新的维度 stack 要求: 所有的维度都必须相等 stack 和 unstack 合并和分离: unstack固定的将一个维度拆分为一个一个的单位,比如 res = tf.unstack(c,axis = 3)
阅读全文
posted @ 2020-11-09 19:04
龑覭
阅读(363)
推荐(0)