随笔分类 -  Tensorflow 笔记

TensorFlow 的学习笔记,简单入门和小实例
摘要:TensorFlow笔记 08 过拟合,正则化,matplotlib 区分红蓝点 首先提醒一下,第7讲的最后滑动平均的代码已经更新了,代码要比理论重要 今天是过拟合,和正则化,本篇后面可能或更有兴趣,因为涉及到可视化图形了,而不是纯数据 过拟合:神经网络模型在训练集上的准确率比较高在新的数据进行预测 阅读全文
posted @ 2018-10-31 18:55 xpwi 阅读(967) 评论(0) 推荐(0) 编辑
摘要:TensorFlow笔记 07 神经网络优化 学习率,滑动平均 学习率 学习率 learning_rate: 表示了每次参数更新的幅度大小。学习率过大,会导致待优化的参数在最小值附近波动,不收敛;学习率过小,会导致待优化的参数收敛缓慢 在训练过程中,参数的更新向着损失函数梯度下降的方向 参数的更新公 阅读全文
posted @ 2018-09-12 18:03 xpwi 阅读(756) 评论(0) 推荐(0) 编辑
摘要:TensorFlow笔记 06 神经网络优化 损失函数,自定义损失函数,交叉熵 神经元模型:用数学公式比表示为:f(Σi xi wi + b), f为激活函数 神经网络 是以神经元为基本单位构成的 激活函数:引入非线性激活因素,提高模型的表达能力 常用的激活函数有relu、sigmoid、tanh等 阅读全文
posted @ 2018-09-12 16:05 xpwi 阅读(1262) 评论(0) 推荐(0) 编辑
摘要:TensorFlow笔记 05 反向传播,搭建神经网络的八股 反向传播 反向传播: 训练模型参数,在所有参数上用梯度下降,使用神经网络模型在训练数据上的损失函数最小 损失函数:(loss) 计算得到的预测值 y 与已知答案 y_ 差距 损失函数的计算有很多方法,均方误差MSE是比较常用的方法之一 关 阅读全文
posted @ 2018-09-08 15:00 xpwi 阅读(830) 评论(0) 推荐(1) 编辑
摘要:TensorFlow笔记 04 神经网络的实现过程,前向传播 基于TensorFlow的NN:用张量表示数据,用计算图搭建神经网络,用会话执行计算图,优化线上的权重(参数),得到模型 张量(tensor):多维数组(列表) 阶:张量的维数 计算图(Graph):搭建神经网络的计算过程,只搭建,不运算 阅读全文
posted @ 2018-09-08 14:21 xpwi 阅读(711) 评论(0) 推荐(0) 编辑
摘要:TensorFlow笔记 03 张量,计算图,会话 搭建你的第一个神经网络,总结搭建八股 基于TensorFlow的NN:用张量表示数据,用计算图搭建神经网络,用会话执行计算图,优化线上的权重(参数),得到模型 张量(tensor):多维数组(列表) 阶:表示张量的维数 ·· 维 数 ···· 阶 阅读全文
posted @ 2018-09-08 14:05 xpwi 阅读(622) 评论(0) 推荐(0) 编辑
摘要:TensorFlow笔记 02 Windows下搭建TensorFlow环境(win版非虚拟机) 本篇介绍的是在windows系统下,使用 Anaconda+PyCharm,不使用虚拟机,也不使用 Linux 安装 Anaconda 这个相信有很多人都在用,所以简单说一下 如果没有安装可以直接去An 阅读全文
posted @ 2018-09-08 13:52 xpwi 阅读(599) 评论(0) 推荐(0) 编辑
摘要:人工智能实践:TensorFlow笔记 01 开篇概述 从今天开始,从零开始学习TensorFlow,有相同兴趣的同志,可以互相学习笔记,本篇是开篇介绍 Tensorflow,已经人工智能领域的一些名词介绍 人工智能实践:TensorFlow笔记 01 概述 什么是人工智能? 人工智能:机器模拟人的 阅读全文
posted @ 2018-09-08 13:41 xpwi 阅读(511) 评论(0) 推荐(0) 编辑