2020年12月21日
摘要: https://www.cnblogs.com/wang2825/articles/8696830.html 阅读全文
posted @ 2020-12-21 21:47 龑覭 阅读(55) 评论(0) 推荐(0) 编辑
摘要: https://blog.csdn.net/dpengwang/article/details/84934197 阅读全文
posted @ 2020-12-21 21:46 龑覭 阅读(308) 评论(0) 推荐(0) 编辑
  2020年11月14日
摘要: 激活函数就是在激活函数之前没有输出 z>0 才会有输出 激活函数不可导 于是提出了sigmoid函数 sigmoid函数是连续光滑的 且范围为0~1 和概率正好吻合 可以压缩很多的值 但是x在-∞和∞的时候倒数为0 因此当值处于这个区间的时候,loss长时间不变 Tanh激活函数 relu激活函数 阅读全文
posted @ 2020-11-14 23:17 龑覭 阅读(168) 评论(0) 推荐(0) 编辑
  2020年11月13日
摘要: 恢复内容开始 1.小型常用数据集加载 1)常用数据集准备 通过keras.datasets直接加载进来 加载minst数据集: import tensorflow as tf (x,y),(x_test,y_test) = tf.keras.datasets.mnist.load_data() pr 阅读全文
posted @ 2020-11-13 00:00 龑覭 阅读(170) 评论(0) 推荐(0) 编辑
  2020年11月11日
摘要: 1.where 根据坐标有目的性的选择 2.scatter_nd 根据坐标目的性的跟新 上述过程实现方法: 3.meshgrid 生成坐标系 用采样的点话出坐标示意图 实现: 阅读全文
posted @ 2020-11-11 21:49 龑覭 阅读(76) 评论(0) 推荐(0) 编辑
摘要: 1.clip_by_value 根据值进行裁剪 2.rule函数 3.clip_by_norm根据范数来裁剪 保持向量的方向不变,就是梯度不变,只改变向量的模 根据二范数 (可以使神经网络的梯度下降更好) 裁剪之前梯度明显过大 裁剪之后梯度明显变小 阅读全文
posted @ 2020-11-11 21:16 龑覭 阅读(83) 评论(0) 推荐(0) 编辑
摘要: 1.pad函数 2.tile函数 阅读全文
posted @ 2020-11-11 20:32 龑覭 阅读(114) 评论(0) 推荐(0) 编辑
摘要: 阅读全文
posted @ 2020-11-11 20:05 龑覭 阅读(76) 评论(0) 推荐(0) 编辑
  2020年11月9日
摘要: 1.tf.norm 张量的范数 2. tf.reduce_min/max 最大值最小值 3.tf.argmax/argmin 最大值的位置/最小值的位置 4.tf.equal 两个张量比较 5.tf.unique 张量元素中的独特值 1.张量的范数(这里考虑向量的范数) norm 默认二范数 2.最 阅读全文
posted @ 2020-11-09 19:49 龑覭 阅读(116) 评论(0) 推荐(0) 编辑
摘要: 1.张量的拼接 concat 要求: 拼接的维度可以不相等,其他的维度必须相等 2.创建新的维度 stack 要求: 所有的维度都必须相等 stack 和 unstack 合并和分离: unstack固定的将一个维度拆分为一个一个的单位,比如 res = tf.unstack(c,axis = 3) 阅读全文
posted @ 2020-11-09 19:04 龑覭 阅读(342) 评论(0) 推荐(0) 编辑