会员
众包
新闻
博问
闪存
赞助商
HarmonyOS
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
爱和九九
迷茫的迷茫人找迷茫的方向做迷茫的实验水迷茫的研究人生
博客园
首页
新随笔
联系
管理
订阅
上一页
1
2
3
4
5
6
7
8
下一页
2022年3月14日
Xftp没有ssh代理,连不上学校的集群,用Xshell解决这个问题
摘要: 因为学科的GPU集群只能用ssh协议登录,Xshell当然没有问题,但是Xftp没有ssh协议,所以找到了用Xshell给Xftp开通代理的方法,记下来记下来。 原文链接:https://www.cnblogs.com/queenz-852/p/13051523.html 服务器只能使用ssh登录,
阅读全文
posted @ 2022-03-14 14:34 爱和九九
阅读(477)
评论(0)
推荐(0)
2022年2月28日
深度学习笔记30 分布式计算(水一期)
摘要: 因为分布式计算也没法跑,也没代码,这个太复杂了,仍然是听理论即可。 GPU机器架构: 机器的效率是有一个比较明确的层级关系的,我们应该尽量在GPU之间做数据交换,实在不行通过CPU去内存做交换,但是应该尽量避免机器之间的数据交换。 能在本地做的尽量在本地做,尽可能减少机器的交互次数。 并行的时候,一
阅读全文
posted @ 2022-02-28 16:12 爱和九九
阅读(68)
评论(0)
推荐(0)
2022年2月26日
深度学习笔记29 多GPU训练实现
摘要: 就是说,咱论文,咱实在是看的恶心的受不了,来看看李沐压压惊。 因为今天是多GPU训练,而我,作为一个一块GPU都没有的穷鬼,自然跑不了代码,同时,colab上也就只有一块GPU,所以记录一下听课的经验就行。 在从0实现中有一个特别有用的代码: scatter这个函数可以根据你的GPU信息,自动把数据
阅读全文
posted @ 2022-02-26 23:42 爱和九九
阅读(602)
评论(0)
推荐(0)
2022年2月23日
听祁芮中台对PointNet和PointNet++以及基于2D视锥对3D点云进行识别的talk笔记 学习笔记20220222
摘要: 1原视频链接:https://www.bilibili.com/video/BV1As411377S/?spm_id_from=333.788.videocard.1 2此外还有一个带有一些对未来展望的视频:https://www.bilibili.com/video/BV1wA411p7FZ?fr
阅读全文
posted @ 2022-02-23 11:52 爱和九九
阅读(971)
评论(0)
推荐(0)
2022年2月20日
深度学习笔记28 其他硬件 TPU DSP ASIC FPGA 单机多卡并行
摘要: Digital Signal Procession(DSP):数字信号处理芯片 为数字信号处理算法设计:点积、卷积、FFT 低功耗,高性能,比移动GPU快5倍,功耗还更低。 利用VLIW(vary long instruction word)非常长的指令,一条指令计算上百次累加或者乘法。 劣势: 编
阅读全文
posted @ 2022-02-20 15:58 爱和九九
阅读(277)
评论(0)
推荐(0)
2022年2月19日
20220219读“精读PointNet” 以后每个月做一次问题规整,每个月月底传一次问题集
摘要: PointNet论文精读:https://blog.csdn.net/cg129054036/article/details/105456002 3D点云深度学习:https://blog.csdn.net/kkxi123456/article/details/102731709 三维点云网络Poi
阅读全文
posted @ 2022-02-19 22:58 爱和九九
阅读(117)
评论(0)
推荐(0)
2022年2月18日
深度学习笔记27 深度学习硬件 CPU GPU
摘要: 举个例子,为什么不能用CPU做深度学习? 就拿Intel的i7来说,她每秒钟的运算是0.15TFLOPS,而NVIDIA的TitanX是12TFLOPS,两者差出80倍之多。 在实际中,你用GPU训练一个模型需要1小时的话,用CPU就需要80小时,你还玩个屁。 CPU: 左侧是集显区域,负责渲染图形
阅读全文
posted @ 2022-02-18 21:20 爱和九九
阅读(786)
评论(0)
推荐(0)
2022年2月16日
深度学习笔记026 ResNet 残差网络
摘要: 沐神:如果你在神经网络中要了解一个网络的话,一定就是要了解ResNet网络了。 在这里首先要思考一个问题: 显然不一定,就如左图所示,我们的模型从F1这么小个训练到了F6这么大个,可能的最优解却变得更差了,这就是所谓的一条路走到黑。 这里的计算涉及到泛函的知识,之前没接触过,感觉挺大一块,慢慢用到在
阅读全文
posted @ 2022-02-16 16:07 爱和九九
阅读(255)
评论(0)
推荐(0)
2022年2月15日
深度学习笔记025 批量归一化 batch normalization BN 大大提高模型训练速度
摘要: 现在几乎所有的神经网络都在使用批量归一化这个层。 但是沐神讲的不太懂,可以看看对源paper的理解:https://blog.csdn.net/hjimce/article/details/50866313 背景: 在网络上,数据一般都在输入层,也就是在最下面,但是损失函数在最上面,所以上面的层训练
阅读全文
posted @ 2022-02-15 17:55 爱和九九
阅读(769)
评论(0)
推荐(0)
2022年2月14日
深度学习笔记024 GoogLeNet Inception V3 含并行连结的网络
摘要: GoogLeNet是一个到目前为止仍然被广泛使用的网络。 GoogLeNet被认为是第一个卷积层超过一百层的网络。 GoogLeNet,其实就是Google的Net,本身就是Google的一批人做的,这里是玩了一个梗,将L大写,算是对LeNet的致敬。 Inception块: GoogLeNet最重
阅读全文
posted @ 2022-02-14 20:53 爱和九九
阅读(478)
评论(0)
推荐(0)
上一页
1
2
3
4
5
6
7
8
下一页
公告