摘要:
在GPU并行编程中,一般情况下,各个处理器都需要了解其他处理器的执行状态,在各个并行副本之间进行通信和协作,这涉及到不同线程间的通信机制和并行执行线程的同步机制。共享内存“__share__”CUDA中的线程协作主要是通过共享内存实现的。使用关键字“__share__...
阅读全文
posted @ 2017-02-05 12:30
未雨愁眸
阅读(651)
推荐(0)
摘要:
网格(Grid)、线程块(Block)和线程(Thread)的组织关系CUDA的软件架构由网格(Grid)、线程块(Block)和线程(Thread)组成,相当于把GPU上的计算单元分为若干(2~3)个网格,每个网格内包含若干(65535)个线程块,每个线程块包含若干...
阅读全文
posted @ 2017-02-04 23:37
未雨愁眸
阅读(1018)
推荐(1)
摘要:
GPU支持大规模的并行加速运算,胜在量上,CPU处理大量的并行运算显得力不从心,它是胜在逻辑上。利用显卡加速的应用越来越多,但如果说GPU即将或最终将替代CPU还有点言过其实,二者最终将优势互补,各尽所能。使用显卡的无脑并行运算破解密码是一个不错的选择。这里选择一种简...
阅读全文
posted @ 2017-02-04 20:11
未雨愁眸
阅读(2130)
推荐(0)
摘要:
CUDA并行编程的基本思路是把一个很大的任务划分成N个简单重复的操作,创建N个线程分别执行执行,每个网格(Grid)可以最多创建65535个线程块,每个线程块(Block)一般最多可以创建512个并行线程,在第一个CUDA程序中对核函数的调用是:addKernel>>...
阅读全文
posted @ 2017-02-04 00:12
未雨愁眸
阅读(831)
推荐(0)
摘要:
Julia集中的元素都是经过简单的迭代计算得到的,很适合用CUDA进行加速。对一个600*600的图像,需要进行360000次迭代计算,所以在CUDA中创建了600*600个线程块(block),每个线程块包含1个线程,并行执行360000次运行,图像的创建和显示通过...
阅读全文
posted @ 2017-02-03 21:42
未雨愁眸
阅读(554)
推荐(0)
摘要:
朱利亚集合是一个在复平面上形成分形的点的集合。以法国数学家加斯顿·朱利亚(Gaston Julia)的名字命名。朱利亚集合可以由下式进行反复迭代得到:对于固定的复数c,取某一z值(如z = z0),可以得到序列 这一序列可能反散于无穷大或始终处于某一范围之内并收敛于某...
阅读全文
posted @ 2017-02-03 20:50
未雨愁眸
阅读(598)
推荐(0)
摘要:
代码function ROI=LabelBox(filename)Mat=imread(filename);imshow(Mat);mouse=imrect;pos=getPosition(mouse);% x1 y1 w hROI=[pos(1) pos(2) po...
阅读全文
posted @ 2017-01-30 15:32
未雨愁眸
阅读(1332)
推荐(0)
摘要:
你或许听过好几种 Make 工具,例如 GNU Make ,QT 的 qmake ,微软的 MS nmake,BSD Make(pmake),Makepp,等等。这些 Make 工具遵循着不同的规范和标准,所执行的 Makefile 格式也千差万别。这样就带来了一个严...
阅读全文
posted @ 2017-01-28 01:27
未雨愁眸
阅读(190)
推荐(0)
摘要:
前言比较简单的一篇博客。https://github.com/microsoft/caffe 微软的Caffe以在Windows下编译简单而受到了很多人的喜爱(包括我),只用改改prop配置然后无脑重新生成就可以。今天配置了一下Faster R-CNN,还挺好用的。 ...
阅读全文
posted @ 2017-01-26 20:48
未雨愁眸
阅读(553)
推荐(0)
摘要:
1. 特殊符号ℓ(\ell):用于和大小的 I 和 数字 1 相区分R(\Re)∇(\nabla):微分算子2. 数学字体 mathbb:blackboard bold,黑板粗体 mathcal:calligraphy(美术字) mathrm:math ro...
阅读全文
posted @ 2017-01-20 20:42
未雨愁眸
阅读(892)
推荐(0)