07 2021 档案

摘要:一、各层的意义 输入层:将每个像素代表一个特征点输入到网络中 卷积层:卷积运算的主要目的是使原信号特征增强,并降低噪音 降采样层:降低网络训练参数及模型的过拟合程度 全连接层:对生成的特征进行加权 二、全连接层与卷积层的参数比较 局部连接即每个卷积的输出只是与卷积核大小的部分有联系,而全连接层的每个 阅读全文
posted @ 2021-07-31 14:59 WTSRUVF 阅读(486) 评论(0) 推荐(0)
摘要:例如使用14 * 14的窗口在16 * 16的图像上从左到右、从上到下滑动,最终会生成2 * 2 * k的张量,注意并不是单独把每个窗口拿去放到网络中,而是一张图,一次性放到网络中,共享重复区域 rcnn分为两步,先用图像分割算法分割出每个图像,然后再对一些可能为对象的色块进行识别,生成box 阅读全文
posted @ 2021-07-31 10:43 WTSRUVF 阅读(361) 评论(0) 推荐(0)
摘要:import tensorflow logdir = './logs' checkpoint_path = './checkpoint/Titanic.{epoch:02d}-{val_loss:.2f}.ckpt' #路径为当前目录下的checkpoint子目录,后边为命名规则 callbacks 阅读全文
posted @ 2021-07-23 16:28 WTSRUVF 阅读(126) 评论(0) 推荐(0)
摘要:在指定网址下载文件,并放到指定目录 import urllib.request import os url = "xxxxx" data_path = "D:/xxx" if not os.path.isfile(data_path): # 如果不存在文件 ret = urllib.request. 阅读全文
posted @ 2021-07-23 11:27 WTSRUVF 阅读(59) 评论(0) 推荐(0)
摘要:当中间多一层时,如64个神经元,只需设两个w,两个b,依次类推,每增加一层增加一个w和一个b w1 = tf.Variabel(tf.random.normal([784, 64], mean = 0.0, stddev = 1.0, dtype = tf.float32)) b1 = tf.Var 阅读全文
posted @ 2021-07-22 22:28 WTSRUVF 阅读(75) 评论(0) 推荐(0)
摘要:独热编码 是一种稀疏向量 其中一个元素为1,其余元素均为0 常用于表示有有限个可能值的字符串或标识符 mnist = input_data.read_data_sets("MNST_data/", one_hot = True) mnist.train.labels[1] # 值为3 #则输出为 a 阅读全文
posted @ 2021-07-21 18:37 WTSRUVF 阅读(99) 评论(0) 推荐(0)
摘要:#读入数据并转化为numpy格式import pandas as pd df = pd.read_csv("C:/Users/WTSRUVF/Desktop/data/boston.csv") df = df.values from sklearn.preprocessing import scal 阅读全文
posted @ 2021-07-21 16:39 WTSRUVF 阅读(38) 评论(0) 推荐(0)
摘要:总是朝着负梯度的方向进行下一步探索 梯度乘学习率 = 权重值的下一个位置 超参数:在学习开始过程之前设置的参数 在jupyter中,用matplotlib显示图像需设置为inline模式,必须加上一行 %matplotlib inline np.random.rand(d0,d1,d2……dn) # 阅读全文
posted @ 2021-07-20 15:35 WTSRUVF 阅读(68) 评论(0) 推荐(0)
摘要:1.可能是在python编辑的环境下,退出即可。 2.pip版本问题 见https://pip.pypa.io/en/stable/installing/#installing-with-get-pip-py 阅读全文
posted @ 2021-07-16 15:37 WTSRUVF 阅读(275) 评论(0) 推荐(0)
摘要:直接卸载了1.2.1,然后重新安装了2.2.0 安装步骤:https://blog.csdn.net/weixin_42232041/article/details/106201692 cuda10.1 + cudnn : https://blog.csdn.net/mdllll/article/d 阅读全文
posted @ 2021-07-16 14:37 WTSRUVF 阅读(43) 评论(0) 推荐(0)
摘要:对于plain net,当网络层次较深时,深层网络越难训练 inception net可以代替人工去选择卷积核的尺寸,需要需要用池化层 阅读全文
posted @ 2021-07-15 15:16 WTSRUVF 阅读(871) 评论(0) 推荐(0)