会员
众包
新闻
博问
闪存
赞助商
HarmonyOS
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
python我的最爱
坚持每天分享一个深度学习的知识点
博客园
首页
新随笔
联系
订阅
管理
上一页
1
···
13
14
15
16
17
18
19
20
21
···
48
下一页
2019年4月10日
深度学习实践-强化学习-bird游戏 1.np.stack(表示进行拼接操作) 2.cv2.resize(进行图像的压缩操作) 3.cv2.cvtColor(进行图片颜色的转换) 4.cv2.threshold(进行图片的二值化操作) 5.random.sample(样本的随机抽取)
摘要: 1. np.stack((x_t, x_t, x_t, x_t), axis=2) 将图片进行串接的操作,使得图片的维度为[80, 80, 4] 参数说明: (x_t, x_t, x_t, x_t) 表示需要进行串接的图片, axis = 2 表示在第三个维度上进行串接操作 2. cv2.resiz
阅读全文
posted @ 2019-04-10 19:53 python我的最爱
阅读(961)
评论(0)
推荐(0)
2019年4月8日
深度学习实战-强化学习-九宫格 当前奖励值 = max(及时奖励 + 下一个位置的奖励值 * 奖励衰减)
摘要: 强化学习使用的是bellmen方程,即当前奖励值 = max(当前位置的及时奖励 + discout_factor * 下一个方向的奖励值) discount_factor表示奖励的衰减因子 使用的是预先制造好的九宫格的类 代码说明: env.nA,即每个位置的下一个方向的个数为4 env.nS 表
阅读全文
posted @ 2019-04-08 11:31 python我的最爱
阅读(1044)
评论(0)
推荐(0)
2019年4月6日
深度原理与框架-图像超分辨重构-tensorlayer
摘要: 图像超分辨重构的原理,输入一张像素点少,像素较低的图像, 输出一张像素点多,像素较高的图像 而在作者的文章中,作者使用downsample_up, 使用imresize(img, []) 将图像的像素从原理的384,384降低到96, 96, 从而构造出高水平的图像和低水平的图像 作者使用了三个部分
阅读全文
posted @ 2019-04-06 00:41 python我的最爱
阅读(3411)
评论(0)
推荐(1)
2019年4月3日
算法知识点的总结(自用)
摘要: 1. 在pickle.load可能会出现代码的读取错误,这里使用代码 2.进行图片的展示,生成的是25张图片 代码来源 对抗生成网络dcgan_mnist 3.对图片进行预处理,并进行保存成.npy格式,代码来源图像补全算法 4. 使用已经存在sess文件,就进行sess的读取, 代码来源高原卷积分
阅读全文
posted @ 2019-04-03 21:45 python我的最爱
阅读(442)
评论(0)
推荐(0)
深度学习实践-物体检测-faster-RCNN(原理和部分代码说明) 1.tf.image.resize_and_crop(根据比例取出特征层,进行维度变化) 2.tf.slice(数据切片) 3.x.argsort()(对数据进行排列,返回索引值) 4.np.empty(生成空矩阵) 5.np.meshgrid(生成二维数据) 6.np.where(符合条件的索引) 7.tf.gather取值
摘要: 1. tf.image.resize_and_crop(net, bbox, 256, [14, 14], name) # 根据bbox的y1,x1,y2,x2获得net中的位置,将其转换为14*14,因此为[14, 14, 512], 256表示转换的个数,最后的维度为[256, 14, 14,
阅读全文
posted @ 2019-04-03 19:57 python我的最爱
阅读(1221)
评论(0)
推荐(0)
2019年3月29日
深度学习原理与框架-图像补全(原理与代码) 1.tf.nn.moments(求平均值和标准差) 2.tf.control_dependencies(先执行内部操作) 3.tf.cond(判别执行前或后函数) 4.tf.nn.atrous_conv2d 5.tf.nn.conv2d_transpose(反卷积) 7.tf.train.get_checkpoint_state(判断sess是否存在
摘要: 1. tf.nn.moments(x, axes=[0, 1, 2]) # 对前三个维度求平均值和标准差,结果为最后一个维度,即对每个feature_map求平均值和标准差 参数说明:x为输入的feature_map, axes=[0, 1, 2] 对三个维度求平均,即每一个feature_map都
阅读全文
posted @ 2019-03-29 20:39 python我的最爱
阅读(2560)
评论(0)
推荐(0)
2019年3月28日
深度学习原理与框架- tf.nn.atrous_conv2d(空洞卷积) 问题:空洞卷积增加了卷积核的维度,为什么不直接使用7*7呢
摘要: 空洞卷积, 从图中可以看出,对于一个3*3的卷积,可以通过使用增加卷积的空洞的个数,来获得较大的感受眼, 从第一幅图中可以看出3*3的卷积,可以通过补零的方式,变成7*7的感受眼,这里补零的个数为1,即dilated等于2 空洞卷积在语义分割中的使用较多,因为涉及到向下卷积和向上卷积,为了不使用pa
阅读全文
posted @ 2019-03-28 21:41 python我的最爱
阅读(1037)
评论(0)
推荐(0)
深度学习原理与框架- tf.nn.conv2d_transpose(反卷积操作) tf.nn.conv2d_transpose(进行反卷积操作) 对于stride的理解存在问题?
摘要: 反卷积操作: 首先对需要进行维度扩张的feature_map 进行补零操作,然后使用3*3的卷积核,进行卷积操作,使得其维度进行扩张,图中可以看出,2*2的feature经过卷积变成了4*4. 3*3的卷积经过扩张以后形成了5*5 feature_map为偶数 feature_map为偶数 代码:主
阅读全文
posted @ 2019-03-28 21:39 python我的最爱
阅读(695)
评论(0)
推荐(0)
深度学习原理与框架- batch_normalize(归一化操作)
摘要: 1. batch_normalize(归一化操作),公式:传统的归一化公式 (number - mean) / std, mean表示均值, std表示标准差 而此时的公式是 scale * (num - mean) / std + beta #scale 和 beta在计算的过程中会进行不断的更新
阅读全文
posted @ 2019-03-28 21:38 python我的最爱
阅读(4819)
评论(0)
推荐(0)
2019年3月24日
深度学习原理与框架-CNN在文本分类的应用 1.tf.nn.embedding_lookup(根据索引数据从数据中取出数据) 2.saver.restore(加载sess参数)
摘要: 1. tf.nn.embedding_lookup(W, X) W的维度为[len(vocabulary_list), 128], X的维度为[?, 8],组合后的维度为[?, 8, 128] 代码说明一下:即根据每一行X中的一个数,从W中取出对应行的128个数据,比如X[1, 3]个数据是3062
阅读全文
posted @ 2019-03-24 23:37 python我的最爱
阅读(623)
评论(0)
推荐(0)
上一页
1
···
13
14
15
16
17
18
19
20
21
···
48
下一页