随笔分类 - Tensorflow
摘要:参考: 1.基于tensorflow的正则化实现 全看完 2.tf.layers.dense添加正则项 很短,拿来就用 两条链接看完包会
阅读全文
摘要:课程地址:https://cloud.tencent.com/developer/labs/lab/10295/console utf-8编码在做网络传输和文件保存的时候,将unicode编码转换成utf-8编码,才能更好的发挥其作用; 当从文件中读取数据到内存中的时候,将utf-8编码转换为uni
阅读全文
摘要:课程地址:https://cloud.tencent.com/developer/labs/lab/10325/console 简介 数据学习 安装 captcha 库 获取训练数据 本教程使用的验证码由数字、大写字母、小写字母组成,每个验证码包含 4 个字符,总共有 62^4 种组合,所以一共有
阅读全文
摘要:课程地址:TensorFlow 实现基于 CNN 数字识别的代码 课前准备: CNN 模型构建 mnist_model.py #!/usr/bin/python # -*- coding: utf-8 -* from __future__ import absolute_import from __
阅读全文
摘要:原文链接:tf中的padding方式SAME和VALID有什么区别?
阅读全文
摘要:课程地址:https://cloud.tencent.com/developer/labs/lab/10313/console 首先我们需要先下载 MNIST 的数据集。使用以下的命令进行下载: deep_neural_networks.py
阅读全文
摘要:课程地址:https://cloud.tencent.com/developer/labs/lab/10298/console 数据准备 shallow_neural_networks.py 我尝试修改learning_rate和weights的标准差: 收敛明显加快:
阅读全文
摘要:课程地址:https://cloud.tencent.com/developer/labs/lab/10296/console 首先我们需要先下载MNIST的数据集。使用以下的命令进行下载: logistic_regression.py 修改logistic_regression.py,增加测试准确
阅读全文
摘要:linear_regression_model.py run.py 结果: ubuntu@VM-12-146-ubuntu:~$ python run.py step 0,test_loss 50554.742188 step 10,test_loss 53487.046875 step 20,te
阅读全文
摘要:参考: 一文搞懂交叉熵在机器学习中的使用,透彻理解交叉熵背后的直觉 当作入门 逻辑回归、交叉熵、softmax softmax还是sigmoid?理解多元分类和多标签分类 TensorFlow交叉熵函数(cross_entropy)·理解 tensorflow中的四个交叉熵函数 可选实验环境: 腾讯
阅读全文
摘要:转自:tensorflow学习笔记(二十三):variable与get_variable TF.VARIABLE、TF.GET_VARIABLE、TF.VARIABLE_SCOPE以及TF.NAME_SCOPE关系 tf.Variable与tf.get_variable() 区别 使用tf.Vari
阅读全文
摘要:自编码Autoencoder 神经网络的非监督学习 神经网络接收图像→→给图像打马赛克→→再还原 原有的图像被压缩,再用所储存的特征信息,经过解压获得原图。 如果神经元直接从获取的高清图像中取学习信息,会是一件很吃力的事情,所以通过特征提取,提取出能够重构出原图的主要信息,把缩减后的信息放入神经网络
阅读全文
摘要:tf.nn.rnn_cell.BasicLSTMCell(n_hidden, forget_bias=1.0, state_is_tuple=True): n_hidden表示神经元的个数, forget_bias就是LSTM们的忘记系数,如果等于1,就是不会忘记任何信息。如果等于0,就都忘记。 s
阅读全文
摘要:CNN实现 Saver 保存读取 Tensorflow目前只能保存Varibales,而不能保存框架,所以需要重新定义一下框架,再把Varibales放进来重新学习。 根据教程编码会出现以下错误:NotFoundError: Tensor name “weight_1” not found in c
阅读全文
摘要:MNIST简单分类 Tensorflow解决overfitting——dropout 转自:莫烦Tensorflow教程(1~14) Summary:所有需要在TensorBoard上展示的统计结果。 tf.name_scope():为Graph中的Tensor添加层级,TensorBoard会按照
阅读全文
摘要:下述几段代码,是看b站上莫凡的视频学习的: 例2: Session会话控制: placeholder: 例3 build a neural network(输入层1个节点,隐藏层10个节点,输出层1个节点) 可视化:
阅读全文
摘要:这里有一篇原作者的博客:深入浅出Tensorflow(四):卷积神经网络 6.2 卷积神经网络简介 卷积神经网络和全连接神经网络的整体架构非常相似,唯一区别就在于神经网络中相邻两层的连接方式,相邻两层之间只有部分节点相连,为了展示每一层神经元的维度,一般将每一层卷积层的节点组织成一个三维矩阵。 使用
阅读全文
摘要:5.4 TensorFlow模型持久化 5.4.1. ckpt文件保存方法 在对模型进行加载时候,需要定义出与原来的计算图结构完全相同的计算图,然后才能进行加载,并且不需要对定义出来的计算图进行初始化操作。 这样保存下来的模型,会在其文件夹下生成三个文件,分别是: * .ckpt.meta文件,保存
阅读全文
摘要:5.1 MNIST数据处理 MNIST是一个非常有名的手写数字识别数据集,一般被用作深度学习的入门样例。MNIST数据集是NIST数据集的一个子集,它包含了60000张图片作为训练数据,10000张图片作为测试数据。 通过input_data.read_data_sets函数生成的类会自动将MNIS
阅读全文
摘要:4.1 深度学习与深层神经网络 维基百科对深度学习的精确定义为“一类通过多层非线性变换对高复杂性数据建模算法的合集”。因为深层神经网络是实现“多层非线性变化”最常用的一种方法,所以在实际中基本可以认为深度学习就是深层神经网络的代名词. 4.2 损失函数定义 (1)经典损失函数 通过神经网络解决多分类
阅读全文

浙公网安备 33010602011771号