会员
众包
新闻
博问
闪存
赞助商
HarmonyOS
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
walter_xh
博客园
首页
新随笔
联系
订阅
管理
2020年1月31日
数组排序返回索引-python和c++的实现
摘要: 返回一个数组排序后的索引经常在项目中用到,所以这里总结一下c++和python两种语言的实现。 Python #!/usr/local/bin/python3 a=[2,3,4,5,63,4,32,3] # ascending #sorted sorted_indx = [idx for idx,v
阅读全文
posted @ 2020-01-31 10:54 walter_xh
阅读(1274)
评论(0)
推荐(1)
2019年12月4日
数组的并行求和-cuda实现
摘要: 简介 参考:https://developer.download.nvidia.com/assets/cuda/files/reduction.pdf NVIDIA 官方有一个PPT是介绍reduce sum,就是对数组进行求和。这个在串行程序里面非常简单的程序,在并行里面实现却有很多的技巧。PPT
阅读全文
posted @ 2019-12-04 19:51 walter_xh
阅读(3517)
评论(0)
推荐(1)
2019年10月28日
图像预处理-大图切割-python实现
摘要: 简介 深度学习中,数据集的预处理往往是很基础的一步,很多场景都需要将一张大图进行切割。本篇提供一种重叠矩形框的生成方法,数据集中的图像尺寸可以不同,根据生成的重叠矩形框可以crop出相应的图像区域。主要难点在于函数不假设图像的尺寸大小。 实现 以下是重叠矩形框的生成函数,是根据右下角的坐标来确定左上
阅读全文
posted @ 2019-10-28 21:10 walter_xh
阅读(3342)
评论(0)
推荐(0)
2019年9月30日
Pytorch 多GPU训练-多计算节点并行-All you need
摘要: 概述 本篇介绍多计算节点上的pytorch分布式训练。从环境配置到运行demo的所有步骤,step by step。没有理论原理,理论原理可以参考 "这里" . 基础环境 多台linux计算节点,通过网络连接,不同主机之间可以相互ping通。网速越快越好,如果通信速度比较慢,就不用怎么考虑分布式训练
阅读全文
posted @ 2019-09-30 15:42 walter_xh
阅读(3227)
评论(0)
推荐(0)
2019年9月26日
Pytorch 多GPU训练-单运算节点-All you need
摘要: 概述 Pytorch多GPU训练本质上是数据并行,每个GPU上拥有整个模型的参数,将一个batch的数据均分成N份,每个GPU处理一份数据,然后将每个GPU上的梯度进行整合得到整个batch的梯度,用整合后的梯度更新所有GPU上的参数,完成一次迭代。 其中多gpu训练的方案有两种,一种是利用 实现,
阅读全文
posted @ 2019-09-26 12:28 walter_xh
阅读(22752)
评论(14)
推荐(3)
2019年8月5日
Windows 编程中的问题
摘要: VS的问题 默认当前工作目录:.vcxproj 文件所在的目录,所以在设置相对路径时需要根据这个文件所在位置来设置。而直接运行exe时是相对于exe所在的目录,或者执行exe时的工作目录。 运行库配置: 建议使用第三种方式,这种方式项目结构更加的干净。
阅读全文
posted @ 2019-08-05 16:13 walter_xh
阅读(161)
评论(0)
推荐(0)
2019年8月3日
终端复用神器tmux入门
摘要: 简介 用哪个终端复用工具?别问,问就是tmux. tmux 的设计哲学与vim类似,也有命令模式和非命令模式.命令模式下有很多快捷键可以用,非命令模式就是正常的终端操作. 基本的结构是: 服务 sessions windows panels 服务一般是创建会话的时候就自动创建好了,一个服务包含多个会
阅读全文
posted @ 2019-08-03 16:06 walter_xh
阅读(288)
评论(0)
推荐(0)
2019年8月2日
常见的深度卷积网络结构整理
摘要: FPN bottom up + top down. 参考:https://github.com/luliyucoordinate/FPN_pytorch/blob/master/fpn.py import torch.nn as nn import torch.nn.functional as F
阅读全文
posted @ 2019-08-02 09:17 walter_xh
阅读(721)
评论(0)
推荐(0)
2019年7月5日
为什么要用f1-score而不是平均值
摘要: 做过机器学习项目的同学大多都用过f1-score, 这是一种均衡精度(precision)和召回率(recall)的综合评价指标,但为什么不用平均值呢? 精度和召回率 $$ pre = \frac{tp}{tp+fp}$$ tp: true positive 真正例,即预测为正例真实也为正例的个数;
阅读全文
posted @ 2019-07-05 20:52 walter_xh
阅读(6687)
评论(0)
推荐(2)
2019年6月12日
DDT: deep descriptor transform 论文解析
摘要: 论文参考链接:https://arxiv.org/abs/1705.02758 主要思想 提出了一种利用预训练模型(Imagenet Pretrained)来做解决目标共定位(object co localization)问题。目标共定位即给定一个图像集,这个图像集中大部分图像区域都是某一个物体如飞
阅读全文
posted @ 2019-06-12 18:55 walter_xh
阅读(1979)
评论(0)
推荐(0)
下一页
公告