随笔分类 - 4_深度学习(keras、tersorflow2、数据集、pytorch、深度学习花书等)
摘要:Internal Error: Blas GEMM launch failed 问题 一、总结 一句话总结: (1)、此错误主要是由于程序运行时GPU的空间不足而引起的。 (2)、出现显存不足的主要问题是Tensorflow默认申请可使用的全部显存,当tensorflow程序运行会话却没有关闭会话释
阅读全文
摘要:Tensorflow2(预课程) 2.1、多层感知器-层方式 一、总结 一句话总结: 分好步骤写神经网络的确是一件非常简单的事情 1、读取数据集 2、拆分数据集(拆分成训练数据集和测试数据集) 3、构建模型 4、训练模型 5、检验模型 6、模型可视化 1、pandas读取数据方法? 直接iloc方法
阅读全文
摘要:Tensorflow2(预课程) 1.4.1、自动计算梯度 一、总结 一句话总结: 将变量指定为Variable,就不需要tape.watch([a, b, c])步骤了,tensorflow自动给你做了 import tensorflow as tf x = tf.constant(1.) a =
阅读全文
摘要:Tensorflow2(预课程) 1.5、线性回归-非tensorflow方式 一、总结 一句话总结: 对这样的一个节点的神经网络而言,不同的数据的梯度和误差都是所有数据相加,不过误差求求平均即可 # 计算误差 # y = wx + b def compute_error_for_line_give
阅读全文
摘要:Tensorflow2(预课程) 1.2.1、线性回归对应的神经网络结构 一、总结 一句话总结: |||-before 线性模型的神经网络模型到底是怎样,一维的多个输入又怎么表示 |||-end (I)、如果有两个维度的输入,那么input就是2条线,比如第二层是3层,那么对应的w是[2,3]个 (
阅读全文
摘要:keras里面有常用的网络结构 一、总结 一句话总结: keras里面有常用的网络结构,比如ResNet152、InceptionV3、VGG19等等 二、keras里面有常用的网络结构 博客对应课程的视频位置:
阅读全文
摘要:keras中自带数据集 一、总结 一句话总结: keras中自带了一些常用数据集,比如cifar10,cifar100,minist,boston_housing等等,讲课的话可以优先考虑这些数据集 二、keras中自带数据集 博客对应课程的视频位置:
阅读全文
摘要:TensorFlow的Eager模式 一、总结 一句话总结: 直接迭代和直观调试,Eager模式下求解梯度与自定义训练 1、Eager模式直接迭代和直观调试 2、tf.GradientTape求解梯度,自定义训练逻辑 二、TensorFlow的Eager模式 转自或参考:TensorFlow Eag
阅读全文
摘要:200813_tensorflow2 5、卷积神经网络讲课,用CBAPD讲的话,真的极佳 一、总结 一句话总结: 卷积就是特征提取器,就是C(卷积层)B(批标准化层)A(激活层)P(池化层)D(dropout层) model=tf.keras.models.Sequential([ Conv2D(f
阅读全文
摘要:200813_tensorflow2 4、为什么需要批标准化(Batch Normalization)操作(杂) 一、总结 一句话总结: 一、神经网络对0附近的数据更加敏感,但是随着网络层数的增加,特征数据会出现偏离0均值的情况 二、标准化可以使数据符合以0为均值,1为标准差的标准正态分布,把偏移的
阅读全文
摘要:200813_tensorflow2 3、iris分类简单神经网络 一、总结 一句话总结: (A)、具体相乘就是 每个batch(这里是32)的数据来整体和w1相乘,然后加上b1,b1维度不够,肯定是用了广播 (B)、y = tf.matmul(x_train, w1) + b1 # 神经网络乘加运
阅读全文
摘要:200813_tensorflow2 2、读取iris数据 一、总结 一句话总结: (1)、为方便查看数据,用pandas构建DataFrame,加上数据的标签,加上对应的y数据 (2)、x_data = DataFrame(x_data, columns=['花萼长度', '花萼宽度', '花瓣长
阅读全文
摘要:200813_tensorflow2 1、基础 一、总结 一句话总结: 讲课的时候可以考虑就像这样讲,把需要的基础东西先过一遍,用什么讲什么,这样减轻记忆力,极好的 1、常用函数 t.Variable? ①、tf.Variable()将变量标记为“可训练”,被标记的变量会在反向传播中记录梯度信息。神
阅读全文
摘要:Keras实现卷积神经网络 一、总结 一句话总结: tf的高级模块keras是可以非常简单方便的实现卷积神经网络、循环神经网络等神经网络 model = Sequential()# 第一个卷积层,32个卷积核,大小5x5,卷积模式SAME,激活函数relu,输入张量的大小 model.add(Con
阅读全文
摘要:Tensorflow2.0的Kreas高层接口介绍 一、总结 一句话总结: Keras 是一个主要由 Python 语言开发的开源神经网络计算库,它被设计为高度模块化和易扩展的高层神经网络接口,使得用户可以不需要过多的 专业知识就可以简洁、快速地完成模型的搭建与训练。 1、TensorFlow2.X
阅读全文
摘要:TensorFlow 的常用模块介绍 一、总结 一句话总结: Module:tf.train:这个模块主要是用来支持训练模型的 Module:tf.nn:神经网络的功能支持模块,这是最常用到的一个模块,比如用于构建经典的卷积网络,它下面还包含了 rnn_cell 的子模块,用于构建循环神经网络; M
阅读全文
摘要:keras是什么 一、总结 一句话总结: Keras是一个由Python编写的开源人工神经网络库,可以作为Tensorflow、Microsoft-CNTK和Theano的高阶应用程序接口,进行深度学习模型的设计、调试、评估、应用和可视化。 二、keras是什么 转自或参考:Kerashttps:/
阅读全文
摘要:Batch Normalization的正确打开方式 一、总结 一句话总结: a)、计算出当前batch的每个channel的均值mean,计算出当前batch的每个channel的方差variance,令输入减去均值再除以标准差delta, b)、得到normalized输出x-hat,最后乘以s
阅读全文
摘要:TensorFlow2_200729系列 28、梯度消失和梯度爆炸是什么(杂) 一、总结 一句话总结: 对于多层的神经网络,当由后向前传播时,因为本来就有误差,传到某一层的时候,要么梯度不更新(梯度消失),要么梯度特别大(梯度爆炸),这两种情况都不能很好的更新网络 1、[784,w,h,b]中的b一
阅读全文
摘要:TensorFlow2_200729系列 27、gan对抗神经网络 一、总结 一句话总结: A、gan对抗神经网络主要也是用到的卷积神经网络,就是一个生成器(卷积神经网络做的生成器)和一个分类器(卷积神经网络做的分类器), B、比如生成器是在卷积神经网络的基础上小小改动了一下,分类器自然也是,因为有
阅读全文

浙公网安备 33010602011771号