上一页 1 2 3 4 5 6 7 ··· 16 下一页
摘要: MNIST 数据集一共有 7 万张图片,都是 28x28 像素点的 0~9 手写数字,其中 6 万用于训练,1 万张用于测试。 f.keras + Sequential() 详解 代码: import tensorflow as tf # 读入训练所需的输入特征和标签 mnist = tf.kera 阅读全文
posted @ 2020-08-18 17:10 狂奔的小学生 阅读(506) 评论(0) 推荐(0)
摘要: tf.keras + Sequential() 可以搭建出上层输入就是下层输出的顺序网络结构,但是无法写出一些带有跳连的非顺序网络结构。 这时候可以选择用类 class 搭建神经网络结构,即使用 class 类封装一个网络结构: ... class MyModel(Model): def __ini 阅读全文
posted @ 2020-08-18 15:58 狂奔的小学生 阅读(1510) 评论(0) 推荐(0)
摘要: tf.keras 是 tensorflow API,可以快速搭建神经网络模型。 六步: import 相关模块。 指定要喂入网络的训练集和测试集。 在 Sequential() 中搭建网络结构。 在 compile() 中配置训练方法。 在 fit() 中执行训练过程。 用 summary() 打印 阅读全文
posted @ 2020-08-18 09:15 狂奔的小学生 阅读(6587) 评论(0) 推荐(0)
摘要: 神经网络的复杂度 1.空间复杂度 层数 = 隐藏层的层数 + 1个输出层 总参数 = 总w + 总b 2.时间复杂度 乘加运算次数 = 总w 指数衰减学习率 学习率lr表征了参数每次更新的幅度,设置过小,参数更新会很慢,设置过大,参数不容易收敛。 在实际应用中,可以先使用较大学习率,快速找到较优值, 阅读全文
posted @ 2020-08-15 19:23 狂奔的小学生 阅读(2075) 评论(0) 推荐(0)
摘要: 主要步骤: 1.准备数据 数据集读入 数据集乱序 将数据集分为训练集和测试集 将输入特征和标签配对,每次喂入神经网络一小撮(batch) 2.搭建网络 定义神经网络中所有可训练参数 3.参数优化 反向传播,不断减少loss 4.测试效果 计算当前参数前向传播后的准确率 代码: import tens 阅读全文
posted @ 2020-08-15 07:55 狂奔的小学生 阅读(3436) 评论(0) 推荐(0)
摘要: 强制类型转换 tf.cast() 计算张量最小值 tf.reduce_min() 计算张量最大值 tf.reduce_max() 返回行/列最大值的索引 tf.argmax() 计算张量沿行/列的平均值 tf.reduce_mean() 计算张量沿行/列的和 tf.reduce_sum() 声明可训 阅读全文
posted @ 2020-08-14 20:28 狂奔的小学生 阅读(356) 评论(0) 推荐(0)
摘要: 张量(tensor):可以表示0阶到n阶的数组 0阶张量(标量):单独的一个数 1阶张量(向量):一维数组 2阶张量(矩阵):二维数组 n阶张量(张量):n维数组 tensorflow 中几种常见的数据类型: tf.int,tf.float tf.int32 tf.float32 tf.float6 阅读全文
posted @ 2020-08-14 17:30 狂奔的小学生 阅读(5172) 评论(0) 推荐(1)
摘要: 当今人工智能主流方向 —— 连接主义,即仿脑神经元连接,实现感性思维,如神经网络。 神经网络的一般设计过程: 准备数据:采集大量“特征/标签”数据 搭建网络:搭建神经网络结构 优化参数:训练网络获取最佳参数(反向传播) 应用网络:将网络保存为模型,输入新数据,输出分类或预测结果(前向传播) 前向传播 阅读全文
posted @ 2020-08-14 09:16 狂奔的小学生 阅读(1258) 评论(0) 推荐(0)
摘要: 1.缩放 代码: # 使用resize函数实现图片缩放 import cv2 src = cv2.imread("C:/360Downloads/1.jpg", 1) cv2.imshow("src", src) srcInfo = src.shape height = srcInfo[0] wid 阅读全文
posted @ 2020-08-12 11:01 狂奔的小学生 阅读(1547) 评论(0) 推荐(1)
摘要: 神经网络有三层,输入层A,隐藏层B,输出层C,满足: A(10x1)*W1(1x10)+b1(1x10)=B(10x10) B(10x10)*W2(10x1)+b2(10x1)=C(10x1) 我们需要做的,便是通过多次训练(尝试不同 w、b 的值),找到合适的 w1w2、b1b2,使预测结果更接近 阅读全文
posted @ 2020-08-12 08:54 狂奔的小学生 阅读(1046) 评论(0) 推荐(0)
上一页 1 2 3 4 5 6 7 ··· 16 下一页