12 2020 档案

摘要:说到softmax和sigmoid二者差别,就得说说二者分别都是什么。其实很简单,网上有数以千计的优质博文去给你讲明白,我只想用我的理解来简单阐述一下: sigmoid函数针对两点分布提出。神经网络的输出经过它的转换,可以将数值压缩到(0,1)之间,得到的结果可以理解成“分类成目标类别的概率P”。而 阅读全文
posted @ 2020-12-08 10:42 Sunshine168 阅读(7643) 评论(0) 推荐(1)
摘要:softmax是在一个n分类问题中,输入一个n维的logits向量,输出一个n维概率向量,其物理意义是logits代表的物体属于各类的概率。即softmax的输出是一个n维的one_hot_prediction。 softmax_cross_entropy_with_logits输出的是一个batc 阅读全文
posted @ 2020-12-07 15:59 Sunshine168 阅读(1771) 评论(0) 推荐(0)
摘要:最近在用TensorFlow实现CNN网络时用到了全连接层,在网上看了很多有关全连接层实现的代码,发现相当一部分人都还是倾向于自己构造权重矩阵W和偏移矩阵b,利用矩阵乘法实现全连接层。而TensorFlow中封装了全连接层函数tf.layers.dense(),但是官方文档中并没有解释其详细原理。网 阅读全文
posted @ 2020-12-07 11:23 Sunshine168 阅读(1164) 评论(0) 推荐(0)