2019年3月27日

检测网络搜索算法

摘要: 名字:DetNAS: Neural Architecture Search on Object Detection 地址:https://arxiv.org/pdf/1903.10979.pdf 深度学习进展到当今,新东西很少了,就是拼应用,拼结构。为了发论文凑了一堆各种各样的结构, 使用了一些直觉 阅读全文

posted @ 2019-03-27 15:41 看看完了 阅读(302) 评论(0) 推荐(0) 编辑

2019年3月25日

图像检索算法

摘要: 图像检索:是从一堆图片中找到与待匹配的图像相似的图片,就是以图找图。 看了两篇文章: Large-Scale Image Retrieval with Attentive Deep Local Features https://arxiv.org/pdf/1612.06321v4.pdf Aggre 阅读全文

posted @ 2019-03-25 20:22 看看完了 阅读(8664) 评论(0) 推荐(0) 编辑

2019年3月20日

学习地址收藏

摘要: kalman滤波(转)地址:http://www.bzarg.com/p/how-a-kalman-filter-works-in-pictures/ yolov3 (转) 地址: https://blog.paperspace.com/how-to-implement-a-yolo-v3-obje 阅读全文

posted @ 2019-03-20 10:34 看看完了 阅读(139) 评论(0) 推荐(0) 编辑

2018年11月28日

用turtle画图

摘要: turtle是python自带一个寓教于乐的小乌龟,可以控制乌龟移动(机器人),可以留下足迹。 turtledemo里有许多官方例子。刚才随性而发做,看了介绍随手画了一个,有点像自动原包机,通过简单的规则,画出来的挺好看。 效果图如下 代码就是三四行: reset() #建立画布 for i in 阅读全文

posted @ 2018-11-28 22:13 看看完了 阅读(817) 评论(0) 推荐(0) 编辑

torchvision里densenet代码分析

摘要: 大概就是这样,作为去年最好的分类框架densenet,里边有很多学习的地方。 可以给自己搭建网络提供参考。 阅读全文

posted @ 2018-11-28 20:01 看看完了 阅读(4967) 评论(0) 推荐(0) 编辑

2018年11月26日

样本不均衡下的分类损失函数

摘要: 通常二分类使用交叉熵损失函数,但是在样本不均衡下,训练时损失函数会偏向样本多的一方,造成训练时损失函数很小,但是对样本较小的类别识别精度不高。 解决办法之一就是给较少的类别加权,形成加权交叉熵(Weighted cross entropy loss)。今天看到两个方法将权值作为类别样本数量的函数,其 阅读全文

posted @ 2018-11-26 10:54 看看完了 阅读(10647) 评论(0) 推荐(2) 编辑

2018年11月16日

Qt5 中文乱码问题

摘要: 在做gui界面时,使用QTdesigner设计时,控件的名称等输入中文没有问题。为了更加灵活点,直接使用代码进行布局就很有必要了。这样就会出现中文的乱码。为了解决乱码,查看资料说时修改文件保存的编码,可是任然没有效果。 后来看到QT关于文字编码专门写了个类来处理。叫<QTextCodec> 使用它就 阅读全文

posted @ 2018-11-16 08:49 看看完了 阅读(2877) 评论(0) 推荐(0) 编辑

2018年10月18日

什么是pytorch(4.数据集加载和处理)(翻译)

摘要: 数据集加载和处理 这里主要涉及两个包:torchvision.datasets 和torch.utils.data.Dataset 和DataLoader torchvision.datasets是一些包装好的数据集 里边所有可用的dataset都是 torch.utils.data.Dataset 阅读全文

posted @ 2018-10-18 15:56 看看完了 阅读(1791) 评论(0) 推荐(0) 编辑

2018年10月16日

什么是pytorch(3神经网络)(翻译)

摘要: 神经网络 torch.nn 包可以用来构建神经网络。 前面介绍了 autograd包, nn 依赖于 autograd 用于定义和求导模型。 nn.Module 包括layers(神经网络层), 以及forward函数 forward(input),其返回结果 output. 例如我们来看一个手写数 阅读全文

posted @ 2018-10-16 12:45 看看完了 阅读(1191) 评论(0) 推荐(0) 编辑

2018年10月15日

什么是pytorch(2Autograd:自动求导)(翻译)

摘要: Autograd: 自动求导 pyTorch里神经网络能够训练就是靠autograd包。我们来看下这个包,然后我们使用它来训练我们的第一个神经网络。 autograd 包提供了对张量的所有运算自动求导。它是一种在运行时才被定义的,意味着反向传播只有再代码运行的时候才会计算,每次循环的时候都可以不同, 阅读全文

posted @ 2018-10-15 19:48 看看完了 阅读(3623) 评论(0) 推荐(0) 编辑

导航