上一页 1 ··· 5 6 7 8 9 10 11 下一页
摘要: 阅读全文
posted @ 2018-03-19 20:05 唐淼 阅读(242) 评论(0) 推荐(0)
摘要: 如果小伙伴的英语能力强可以直接阅读这里:https://stackoverflow.com/questions/45137835/what-the-impact-of-different-dimension-of-image-resizer-when-using-default-confi 和htt 阅读全文
posted @ 2018-02-24 11:16 唐淼 阅读(1585) 评论(0) 推荐(0)
摘要: 这是因为目前的protoc3.5有Bug,换成3.4就好了https://github.com/google/protobuf/releases/tag/v3.4.0 阅读全文
posted @ 2018-01-24 11:09 唐淼 阅读(4622) 评论(0) 推荐(2)
摘要: 在跑的时候可以让加些选项: with tf.Session(config=tf.ConfigProto(allow_soft_placement=True, log_device_placement=True)): 其中allow_soft_placement能让tensorflow遇到无法用GPU 阅读全文
posted @ 2018-01-16 16:49 唐淼 阅读(1554) 评论(0) 推荐(0)
摘要: 如果有同学没有MINST数据,请到http://wiki.jikexueyuan.com/project/tensorflow-zh/tutorials/mnist_download.html下载,或者QQ问我 阅读全文
posted @ 2018-01-09 11:12 唐淼 阅读(1730) 评论(0) 推荐(0)
摘要: 后记:其实发现原因后感觉自己很蠢,是自己开了一个软件叫adsafe,会屏蔽一些东西,所以我拼命的用自己的电脑ip都连不上,换成回环地址就好了,把软件关了也可以。 在无数种尝试后,终于在stackoverflow上找到一种方法:https://stackoverflow.com/questions/4 阅读全文
posted @ 2018-01-07 15:59 唐淼 阅读(1179) 评论(0) 推荐(0)
摘要: 卷积神经网络比神经网络多了卷积2个字,但是其实一般多了2个层:卷积层和池化层。卷积层的作用主要是用来提取特征的,而且能保存好空间结构,因为在全连接层,直接把向量给拉平了。设立多个卷积层,就能提取各种各样的特征。然后就是池化层,它的作用是降采样,就是去除一些图片中“不重要”的东西(把平面维度变小,比如 阅读全文
posted @ 2018-01-05 10:07 唐淼 阅读(690) 评论(0) 推荐(0)
摘要: 1.反向传播 关于反向传播我的理解是这样的,SVM和SoftMax可以看成一层神经网络,你如果想要调整它的W很简单,只有求导就可以了,但是当神经网络有多层的话,你无法直接求导来更新最开始层的W,于是就出现了反向传播这个工具。至于神经网络为什么需要多层,理由有很多,我先举个例子,比如一个汽车在图片里面 阅读全文
posted @ 2018-01-03 11:30 唐淼 阅读(294) 评论(0) 推荐(0)
摘要: 1.理解线性分类器 目前我了解学习的线性分类器有2个:SVM和逻辑回归(也就是SoftMax),这2个分类器的主体都是一样,不同的地方就是生成损失函数不一样。所以我先讲主体,再讲损失函数,关于线性分类器,大体就是这个样子: 图片说明:生成这三根直线就是三个线性分类器,如果生成了这三根直线后,后面再有 阅读全文
posted @ 2018-01-03 11:30 唐淼 阅读(727) 评论(0) 推荐(0)
摘要: K最近邻(k-Nearest Neighbor,KNN)分类算法,是一个理论上比较成熟的方法,也是最简单的机器学习算法之一。该方法的思路是:如果一个样本在特征空间中的k个最相似(即特征空间中最邻近)的样本中的大多数属于某一个类别,则该样本也属于这个类别。 如:绿色圆要被决定赋予哪个类,是红色三角形还 阅读全文
posted @ 2018-01-03 11:29 唐淼 阅读(248) 评论(0) 推荐(0)
上一页 1 ··· 5 6 7 8 9 10 11 下一页