文章分类 -  深度学习与Tensorflow2

学着玩
摘要:RESNET 残差神经网络 卷积神经网络的一种 巧妙地利用了短路机制 使更深层成为了可能 解决了简单增加层数导致精度下降的问题 https://en.wikipedia.org/wiki/Residual_neural_network 在一般情况下,不断加神经网络的深度时,模型准确率会先上升然后达到 阅读全文
posted @ 2022-11-02 22:08 cc学习之路 阅读(303) 评论(0) 推荐(0)
摘要:卷积神经网络 卷积神经网络(Convolutional Neural Network, CNN)是一种前馈神经网络,它的人工神经元可以响应一部分覆盖范围内的周围单元,对于大型图像处理有出色表现。 卷积神经网络由一个或多个卷积层和顶端的全连通层(对应经典的神经网络)组成,同时也包括关联权重和池化层(p 阅读全文
posted @ 2022-10-26 20:28 cc学习之路 阅读(168) 评论(0) 推荐(0)
摘要:Kears高级接口 Kears是对函数的高级封装,但是Kears!= tf.Kears Metrics(测量表) Metrics可以记录网络运行过程中的各种指标的记录 如loss,acc等,对比于 自己来记录这些值 使用Metrics更加的方便 1. 创建metrics acc_meter = ke 阅读全文
posted @ 2022-09-28 20:57 cc学习之路 阅读(173) 评论(0) 推荐(0)
摘要:随机梯度下降 Gradient梯度 导数 通用的概念 函数沿着某方向变化的速度 f(x+t) - f(x) / t 所以 一般来说 导数是 指向 f(x)变大的方向 偏微分 函数 沿着 x,y这些标准方向的 变化 梯度 一个向量,偏微分组成的向量 梯度是导数的最最大值,所以只要取相反的方向 就是下降 阅读全文
posted @ 2022-07-22 16:57 cc学习之路 阅读(165) 评论(0) 推荐(0)
摘要:神经网络与全连接层 本篇博客会记录数据加载,全连接层,输出方式,误差计算的相关知识点 常用数据集及数据集加载 数据集加载: (x,y),(x_test,y_test) = keras.datasets.mnist.load_data() 注意 此时加载进来后 y不是one_hot编码,x和y都是nd 阅读全文
posted @ 2022-07-11 11:00 cc学习之路 阅读(97) 评论(0) 推荐(0)
摘要:Tensorflow2 高级操作 合并与分割 tf.concat([a,b],axis=) a = tf.ones([3,5,5]) b = tf.ones([3,5,5]) c = tf.concat([a,b],axis=0) print(c.shape) (6, 5, 5) 不改变纬度 在某一 阅读全文
posted @ 2022-07-03 10:18 cc学习之路 阅读(58) 评论(0) 推荐(0)
摘要:由tensorflow搭建一个简单的神经网络 既然上一篇讲了一些tensorflow的基本操作,那就直接拿来用一下吧,搭建一个简单前馈神经网络 Forward propagation 在我理解中,所谓的神经网络 无非是 累加的多层函数,通过数以千万的参数组成的一个参数矩阵,通过不断地叠加函数和参数, 阅读全文
posted @ 2022-06-16 17:23 cc学习之路 阅读(113) 评论(0) 推荐(0)
摘要:Tensorflow基本操作 tensorflow是如今世界上最流行的开源机器学习框架之一,它可以让我们快速搭建机器学习模型。 Tensorflow基本数据类型 numpy 不支持自动求导 并且不能利用GPU计算 tf.Tensor 类似numpy 什么是tensor 数据 1.1 向量 [1.1] 阅读全文
posted @ 2022-06-16 15:18 cc学习之路 阅读(126) 评论(0) 推荐(0)