随笔分类 -  机器学习

摘要:最近打比赛,apply操作极慢,队友使用了线程池,用多核开辟多线程跑,加速。 在阿里平台上,都没问题。 我是win10系统+jupyter notebook 多线程那个模块运行,会显示一直运行,p.close()会被卡死 这是linux的写法 在Windows上要想使用进程模块,就必须把有关进程的代 阅读全文
posted @ 2018-12-03 21:08 在下小白 阅读(6606) 评论(0) 推荐(0)
摘要:1、 np.percentile(train_list["wnum1"], [10, 90, 95, 99]) 计算一个多维数组的任意百分比分位数,此处的百分位是从小到大排列 2、fig, (ax1, ax2) = plt.subplots(1, 2, figsize=(20, 6)) 定义画图的画 阅读全文
posted @ 2018-09-03 20:23 在下小白 阅读(650) 评论(0) 推荐(0)
摘要:逻辑斯蒂回归和感知机的异同: 两类都是线性分类器; 损失函数两者不同:逻辑斯蒂回归使用极大似然(对数损失函数),感知机使用的是均方损失函数(即错误点到分离平面的距离,最小化这个值) 逻辑斯蒂比感知机的优点在于对于激活函数的改进。 前者为sigmoid function,后者为阶跃函数。这就导致LR是 阅读全文
posted @ 2018-05-30 11:07 在下小白 阅读(6231) 评论(0) 推荐(0)
摘要:官方中文文档的网址先贴出来:https://tensorflow.google.cn/programmers_guide/saved_model tf.train.Saver 类别提供了保存和恢复模型的方法。tf.train.Saver 构造函数针对图中所有变量或指定列表的变量将 save 和 re 阅读全文
posted @ 2018-05-17 21:55 在下小白 阅读(1872) 评论(0) 推荐(0)
摘要:tensorflow中graph包含一些操作对象,这些对象就是计算节点。而tensor表示的是不同操作间的数据节点。 tensorflow会创建默认的图,可以通过tf.get_default_graph()来访问: 代码: import tensorflow as tfimport numpy as 阅读全文
posted @ 2018-05-04 10:30 在下小白 阅读(686) 评论(0) 推荐(0)
摘要:模型保存,先要创建一个Saver对象:saver=tf.train.Saver(), max_to_keep 是用来设置保存模型的个数,默认为5,即保存最近的五个模型,saver=tf.train.Saver(max_to_keep=0) 如果你只想保存最后一代的模型,则只需要将max_to_kee 阅读全文
posted @ 2018-05-04 09:47 在下小白 阅读(2841) 评论(0) 推荐(0)
摘要:先说定义:batch normalization字面意思就是批量标准化。在每次SGD时。在activation前,对mini-batch做规范化操作,使得结果的均值为0,方差为1. 阅读全文
posted @ 2018-04-26 19:55 在下小白 阅读(243) 评论(0) 推荐(0)
摘要:def onehot(labels): '''one-hot 编码''' #数据有几行输出 n_sample = len(labels) #数据分为几类。因为编码从0开始所以要加1 n_class = max(labels) + 1 #建立一个batch所需要的数组,全部赋0. onehot_lab 阅读全文
posted @ 2018-04-26 11:35 在下小白 阅读(3082) 评论(0) 推荐(1)
摘要:如上贴出了:错误信息和错误代码。 这个问题困扰了自己两天,报错大概是说输入的数据和接受的格式不一样,不能作为tensor。 后来问了大神,原因出在tf.reshape(),因为网络训练时用placeholder定义了输入格式,所以输入不能用tensor,而tf.reshape()返回结果就是一个te 阅读全文
posted @ 2018-04-25 18:59 在下小白 阅读(6559) 评论(0) 推荐(0)
摘要:《Spatial Pyramid Pooling in Deep Convolutional Networks for Visual Recognition》,这篇paper提出了空间金字塔池化。 之前学习的RCNN,虽然使用了建议候选区域使得速度大大降低,但是对于超大容量的数据,计算速度还有待提高 阅读全文
posted @ 2018-04-11 10:26 在下小白 阅读(3878) 评论(0) 推荐(0)
摘要:最近在学习RCNN,对于Bounding-Box(BB)regression能够提高边界框的精确度,对于其内容产生了很大兴趣。 主要内容学习自大神博客:https://blog.csdn.net/bixiwen_liu/article/details/53840913 侵删 这张图很有代表性,红色r 阅读全文
posted @ 2018-04-10 16:42 在下小白 阅读(403) 评论(0) 推荐(0)
摘要:一摘要: 两个主要工作:1将cnn和自上而下的区域提案结合进行定位和对象分割;2当训练数据稀缺时,先预训练然后微调。 rccn工作分为四步:1输入一张图片 2用selective search算法对每张图片产生2000张自下而上的候选目标区域 3用cnn对每一个候选区域提取深度特征(因为候选区域大小 阅读全文
posted @ 2018-04-09 22:39 在下小白 阅读(938) 评论(0) 推荐(0)
摘要:之前做手写数字识别时,接触到softmax网络,知道其是全连接层,但没有搞清楚它的实现方式,今天学习Alexnet网络,又接触到了softmax,果断仔细研究研究,有了softmax,损失函数自然不可少。一起学习记录一下。 主要参考的博文:http://blog.csdn.net/u01438016 阅读全文
posted @ 2018-03-19 13:29 在下小白 阅读(29689) 评论(0) 推荐(0)
摘要:最近试一下kaggle的文字检测的题目,目前方向有两个ssd和cptn。直接看看不太懂,看到Alexnet是基础,今天手写一下网络,记录一下啊。 先理解下Alexnet中使用的原件和作用: 激活函数使用了relu并用了多个cpu:提高了训练速度。 重叠pool池化(不再是简单除以2的池化了,类似于卷 阅读全文
posted @ 2018-03-19 12:28 在下小白 阅读(5265) 评论(0) 推荐(0)
摘要:首先输入图像是28*28处理好的图。 第一层卷积:用5*5的卷积核进行卷积,输入为1通道,输出为32通道。即第一层的输入为:28*28图,第一层有32个不同的滤波器,对同一张图进行卷积,然后输出为32张特征图。需要32张特征图原因是能表示更多的特征。 第二层卷积:卷积核同样为5*5,但是输入为32通 阅读全文
posted @ 2017-11-20 19:48 在下小白 阅读(870) 评论(0) 推荐(0)
摘要:tf.nn.conv2d(input, filter, strides, padding, use_cudnn_on_gpu=None, name=None) 介绍参数: input:指卷积需要输入的参数,具有这样的shape[batch, in_height, in_width, in_chann 阅读全文
posted @ 2017-11-11 18:36 在下小白 阅读(11313) 评论(0) 推荐(0)
摘要:mnist = input_data.read_data_sets("MNIST_data/", one_hot=True) sess = tf.InteractiveSession() #创建一个新的senssion,这个命令会将这个session注册为默认的session,之后的运算也默认跑在这 阅读全文
posted @ 2017-11-10 21:08 在下小白 阅读(783) 评论(0) 推荐(0)
摘要:今天花了大半天的时间,把三层神经网络,自己推导了一遍。对于其基础思想有了一定的了解,特写此文记录下。 首先介绍基本概念,三层分别为输入层、隐含层和输出层。横线箭头为权重。所要最求的目的就是,在此网络下的输出与真实的输出尽可能的接近。 其中截距项的作用:拟合平面上的一些点,的普适性肯定比好,能够是的所 阅读全文
posted @ 2017-09-24 20:30 在下小白 阅读(607) 评论(0) 推荐(0)