随笔分类 - 25.tensorflow
摘要:一、 Dropout原理简述: tf.nn.dropout是TensorFlow里面为了防止或减轻过拟合而使用的函数,它一般用在全连接层。 Dropout就是在不同的训练过程中随机扔掉一部分神经元。也就是让某个神经元的激活值以一定的概率p,让其停止工作,这次训练过程中不更新权值,也不参加神经网络的计
阅读全文
摘要:线性回归(Linear Regression) 给定一些数据,{(x1,y1),(x2,y2)…(xn,yn) },x的值来预测y的值,通常地,y的值是连续的就是回归问题,y的值是离散的就叫分类问题。 高尔顿的发现,身高的例子就是回归的典型模型。 线性回归可以对样本是线性的,也可以对样本是非线性的,
阅读全文
摘要:1、tensorflow的基本运作 为了快速的熟悉TensorFlow编程,下面从一段简单的代码开始: 1 2 3 4 5 6 7 8 9 10 11 12 其中tf.mul(a, b)函数便是tf的一个基本的算数运算,接下来介绍跟多的相关函数。 2、tf函数 1 2 3 TensorFlow的算术
阅读全文
摘要:刚用家里的电脑看Python代码,发现py的文件在SI不显示,才意识到还没有安装Python.CLF插件。正好把这个方法在这分享一下,毕竟so easy~ 下载点这里–>Python.CLF https://www.sourceinsight.com/download/custom-language
阅读全文
摘要:首先,明确一点,tf.argmax可以认为就是np.argmax。tensorflow使用numpy实现的这个API。 简单的说,tf.argmax就是返回最大的那个数值所在的下标。 这个很好理解,只是tf.argmax()的参数让人有些迷惑,比如,tf.argmax(array, 1)和tf.ar
阅读全文
摘要:tf.equal(A, B)是对比这两个矩阵或者向量的相等的元素,如果是相等的那就返回True,反正返回False,返回的值的矩阵维度和A是一样的 输出: [[ True True True False False]]
阅读全文
摘要:name/variable_scope 的作用 欢迎转载,但请务必注明原文出处及作者信息。 @author: huangyongye @creat_date: 2017-03-08refer to: Sharing Variables name / variable_scope 详细理解请看: Te
阅读全文
摘要:在tensorflow的使用中,经常会使用tf.reduce_mean,tf.reduce_sum等函数,在函数中,有一个reduction_indices参数,表示函数的处理维度,直接上图,一目了然: 需要注意的一点,在很多的时候,我们看到别人的代码中并没有reduction_indices这个参
阅读全文
摘要:tensorflow中有很多在维度上的操作,本例以常用的tf.reduce_sum进行说明。官方给的api input_tensor:表示输入 axis:表示在那个维度进行sum操作。 keep_dims:表示是否保留原始数据的维度,False相当于执行完后原始数据就会少一个维度。 reductio
阅读全文
摘要:高斯分布的概率密度函数 numpy中 参数的意义为: loc:float 概率分布的均值,对应着整个分布的中心center scale:float 概率分布的标准差,对应于分布的宽度,scale越大越矮胖,scale越小,越瘦高 size:int or tuple of ints 输出的shape,
阅读全文
摘要:output output array([[ 0.24747071, -0.43886742], array([[ 0.24747071, -0.43886742], [-0.03916734, -0.70580089], [-0.03916734, -0.70580089], [ 0.004623
阅读全文
摘要:(1)tf.multiply是点乘,即Returns x * y element-wise. (2)tf.matmul是矩阵乘法,即Multiplies matrix a by matrix b, producing a * b.
阅读全文
摘要:____tz_zs tf.random_normal 从正态分布中输出随机值。 . [python] view plain copy <span style="font-size:16px;">random_normal(shape,mean=0.0,stddev=1.0,dtype=tf.floa
阅读全文
摘要:tf.random_uniform((4, 4), minval=low,maxval=high,dtype=tf.float32)))返回4*4的矩阵,产生于low和high之间,产生的值是均匀分布的。 例如: 输出: [[ 0.23706067 0.42579055 0.16444612 0.1
阅读全文
摘要:第一部分:深度学习 原文:https://blog.csdn.net/woaidapaopao/article/details/77806273?locationnum=9&fps=1 1、神经网络基础问题 (1)Backpropagation(要能推倒) 后向传播是在求解损失函数L对参数w求导时候
阅读全文
摘要:转自https://zhuanlan.zhihu.com/p/25005808 更新几个面试被问到或者联想出来的问题,后面有时间回答 SGD 中 S(stochastic)代表什么 个人理解差不多就是Full-Batch和Mini-Batch 监督学习/迁移学习/半监督学习/弱监督学习/非监督学习?
阅读全文
摘要:https://blog.csdn.net/lj6052317/article/details/78241730 前言: 找工作时(IT行业),除了常见的软件开发以外,机器学习岗位也可以当作是一个选择,不少计算机方向的研究生都会接触这个,如果你的研究方向是机器学习/数据挖掘之类,且又对其非常感兴趣的
阅读全文
摘要:本文是OpenCV 2 Computer Vision Application Programming Cookbook读书笔记的第一篇。在笔记中将以Python语言改写每章的代码。 PythonOpenCV的配置这里就不介绍了。 注意,现在opencv for python就是通过NumPy进行绑
阅读全文
摘要:https://www.jianshu.com/p/db2afc0b0334 https://blog.csdn.net/xxzhangx/article/details/54563574
阅读全文
摘要:函数原型为 def reshape(tensor, shape, name=None) 第1个参数为被调整维度的张量。 第2个参数为要调整为的形状。 返回一个shape形状的新tensor 注意shape里最多有一个维度的值可以填写为-1,表示自动计算此维度。 很简单的函数,如下,根据shape为[
阅读全文