会员
众包
新闻
博问
闪存
赞助商
HarmonyOS
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
郭老猫
博客园
首页
新随笔
联系
订阅
管理
上一页
1
2
3
4
5
下一页
2017年12月25日
02 导数悖论
摘要: 视频原址:https://www.bilibili.com/video/av10352133/ 导数到底是什么? 有一种说法是,导数就是函数的瞬时变化率。 但是这种说法有一个悖论,变化需要一个时间段让变化发生。而瞬时,一个时间点上也就没有变化的余地了。 我们还是从之前的小汽车的例子中探寻导数的意义。
阅读全文
posted @ 2017-12-25 21:50 郭老猫
阅读(1481)
评论(0)
推荐(0)
2017年12月24日
01 微积分的本质 (2)
摘要: 整理3Blue1Brown的课程内容,方便随时翻看。 原视频地址:https://www.bilibili.com/video/av10308208/ 前文中,我们用一种先切分划分微小值的方式,将一个大问题划分为若干小问题,然后获得一个求得近似解的方法。 之后,我们通过将划分值不断缩小的方式,将原来
阅读全文
posted @ 2017-12-24 22:44 郭老猫
阅读(2434)
评论(0)
推荐(0)
01 微积分的本质 (1)
摘要: 整理3Blue1Brown的课程内容,方便随时翻看。 原视频地址:https://www.bilibili.com/video/av10308208/ 要了解微积分的本质,我们从一个大家都知道的公式说起。这个公式就是求圆的面积公式:A=πr² 我们将用微积分的方式来推导这个公式,在这个过程中,我们将
阅读全文
posted @ 2017-12-24 21:51 郭老猫
阅读(12077)
评论(0)
推荐(0)
2017年12月18日
TensorFlow argmax函数
摘要: 获取行/列中最大值的索引号。 axis:0按列,1按行。 举个例子 [[1,2,3,4]] 会得到 [0 0 0 0] [3] 因为按列算,每一列的第唯一一个数组就是最大的数字,其索引号都是0。所以所有的列返回的都是0,总共有4列所以返回:[0,0,0,0] 按行计算得到的就是这一行4个数字中最大的
阅读全文
posted @ 2017-12-18 18:22 郭老猫
阅读(1756)
评论(0)
推荐(0)
TensorFlow滑动平均值
摘要: 在采用梯度下降法训练的神经网络中,使用滑动平均模型都可以提高神经网络在测试模型中的表现。 TensorFlow 提供了tf.train.ExponentialMovingAverage来实现滑动平均值模型。 在初始化滑动平均模型是,要传入一个衰减率参数,这个衰减率用来控制模型的更新速度。 tf.tr
阅读全文
posted @ 2017-12-18 16:41 郭老猫
阅读(1165)
评论(0)
推荐(0)
TensorFlow 过拟合与正则化(regularizer)
摘要: 所谓过拟合,就是当一个模型过于复杂后,它可以很好的处理训练数据的每一个数据,甚至包括其中的随机噪点。而没有总结训练数据中趋势。使得在应对未知数据时错误里一下变得很大。这明显不是我们要的结果。 我们想要的是在训练中,忽略噪点的干扰,总结整体趋势。在应对未知数据时也能保持训练时的正确率。 上图中第一种情
阅读全文
posted @ 2017-12-18 15:04 郭老猫
阅读(5008)
评论(0)
推荐(0)
2017年12月13日
TensorFlow 变量作用域 变量管理 共享变量
摘要: 当我们的神经网络拥有很复杂的模块时,我们使用TensorFlow提供的变量作用域(tf.variable_scope)来管理这些变量。 变量作用域的两个核心方法: 在上一篇文章中,我们已经有用到这两个方法,这一篇我们聚焦在这两方法的具体说明上。 tf.get_variable方法在创建初始化变量的时
阅读全文
posted @ 2017-12-13 22:14 郭老猫
阅读(1832)
评论(0)
推荐(0)
2017年12月12日
TensorFlow MNIST最佳实践
摘要: 之前通过CNN进行的MNIST训练识别成功率已经很高了,不过每次运行都需要消耗很多的时间。在实际使用的时候,每次都要选经过训练后在进行识别那就太不方便了。 所以我们学习一下如何将训练习得的参数保存起来,然后在需要用的时候直接使用这些参数进行快速的识别。 本章节代码来自《Tensorflow 实战Go
阅读全文
posted @ 2017-12-12 16:51 郭老猫
阅读(699)
评论(0)
推荐(0)
2017年12月11日
TensorFlow 损失函数
摘要: 对于分类问题,我们一般用交叉熵来测算计算值与真实的差距。 交叉熵表现的是两个概率分布之间的差距。差距越大,交叉熵越大;差距越小,交叉熵越小。 这么说还是有点抽象。打个比方: 一个分类问题,正确答案是(1,0,0)。 一个预测模型经过softmax回归后给出的答案是 (0.5,0.4,0.4) 那么与
阅读全文
posted @ 2017-12-11 12:10 郭老猫
阅读(828)
评论(0)
推荐(0)
2017年12月8日
TensorFlow 的学习效率的指数衰减法
摘要: 在之前的几个例子中都出现了如上代码。 这个优化算法的参数就是学习效率。那么这个学习效率是什么意思,到底取什么样的值比较好呢? 之前已经讲过,优化算法会反向修改函数中设置为Variable的变量值,使得误差逐步缩小。而这里的学习效率就是Variable更新变化的幅度。 如果幅度过大,参数就很可能跨过最
阅读全文
posted @ 2017-12-08 11:31 郭老猫
阅读(3536)
评论(0)
推荐(0)
上一页
1
2
3
4
5
下一页
公告