2019年11月15日
摘要:
tile() 平铺之意,用于在同一维度上的复制 tile( input, #输入 multiples, #同一维度上复制的次数 name=None )示例如下: with tf.Graph().as_default(): a = tf.constant([1,2],name='a') b = tf.
阅读全文
posted @ 2019-11-15 22:15
一杯明月
阅读(5083)
推荐(0)
摘要:
1.数据集加载 if FLAGS.normal: assert(NUM_POINT<=10000) DATA_PATH = os.path.join(ROOT_DIR, 'data/modelnet40_normal_resampled') TRAIN_DATASET = modelnet_data
阅读全文
posted @ 2019-11-15 21:09
一杯明月
阅读(2941)
推荐(1)
2019年11月13日
摘要:
代码参考:https://blog.csdn.net/weixin_39373480/article/details/88934146 def recognize_all_data(test_area = 5): ALL_FILES = getDataFiles('/home/dell/qcc/po
阅读全文
posted @ 2019-11-13 17:58
一杯明月
阅读(2973)
推荐(0)
摘要:
https://blog.csdn.net/luoxuexiong/article/details/95772045
阅读全文
posted @ 2019-11-13 12:16
一杯明月
阅读(359)
推荐(0)
2019年11月12日
摘要:
linux下一款不错的流程图工具:dia。安装此工具:1.打开终端(快捷键:ctrl+alt+t)。2.输入命令: $sudo apt-get install dia 3.提示“解压缩后会消耗掉 20.9 MB 的额外空间。您希望继续执行吗?[Y/n]”,输入“y”,等待,安装完成。卸载此工具:(1
阅读全文
posted @ 2019-11-12 17:59
一杯明月
阅读(1787)
推荐(0)
2019年11月11日
摘要:
1.卷积 提取局部特征 2.Relu 留下相关特征,去掉不相关特征,卷积之后的正值越大,说明与卷积核相关性越强,负值越大,不相关性越大。 3.池化 池化的目的: (1)留下最相关的特征,或者说留下最明显的特征。 (2)增大感受野,所谓感受野,即一个像素对应回原图的区域大小,假如没有pooling,一
阅读全文
posted @ 2019-11-11 22:32
一杯明月
阅读(1891)
推荐(0)
2019年11月10日
摘要:
linux 上一个核占满是 100%,双核机器占满整个 CPU 是 200%
阅读全文
posted @ 2019-11-10 22:23
一杯明月
阅读(614)
推荐(0)
摘要:
来源:https://blog.csdn.net/weixin_42001089/article/details/88843152 import multiprocessing import time import os print("温馨提示:本机为",os.cpu_count(),"核CPU")
阅读全文
posted @ 2019-11-10 22:10
一杯明月
阅读(1596)
推荐(0)
摘要:
Batch normalization + ReLU 批归一化(BN)可以抑制梯度爆炸/消失并加快训练速度 原论文认为批归一化的原理是:通过归一化操作使网络的每层特征的分布尽可能的稳定,从而减少Internal Covariate Shift relu是目前应用最为广泛的激活函数, 由于其梯度要么是
阅读全文
posted @ 2019-11-10 19:05
一杯明月
阅读(2063)
推荐(0)
摘要:
深度学习的基本问题是:学习一个由x到y的映射f 如果y是连续向量,则为回归问题 如果y是离散值,则为分类问题 如果y是随机变量,则为生成问题 为了学习这个映射f,首先要准备好一个映射库 然后依据大量的数据,从映射库中搜索最接近目标映射f的假设h 这个搜索方法往往称为机器学习算法
阅读全文
posted @ 2019-11-10 19:01
一杯明月
阅读(877)
推荐(0)