摘要: 1.Conv2DLSTMCell源代码 class ConvLSTMCell(BaseConvRNNCell): """Convolutional LSTM network cell. Reference: Xingjian et al. NIPS2015 Parameters input_shap 阅读全文
posted @ 2021-12-15 14:19 while(1){happiness;} 阅读(112) 评论(0) 推荐(0)
摘要: #前言 以前的博客很多symbol的计算过程,但是最近都找不到了,找到的基本都是李沐书中的代码片段没有前向计算过程,书中也基本都是gluon的例子了,由于gluon是一个高级的python接口,在方便使用的同时,也有一定的局限性,故要学习一下symbol。 #代码 # coding: utf-8 i 阅读全文
posted @ 2021-12-15 14:15 while(1){happiness;} 阅读(70) 评论(0) 推荐(0)
摘要: 引言 Gluon是MXNet的动态图接口;Gluon学习了Keras,Chainer,和Pytorch的优点,并加以改进。接口更简单,且支持动态图(Imperative)编程。相比TF,Caffe2等静态图(Symbolic)框架更加灵活易用。同时Gluon还继承了MXNet速度快,省显存,并行效率 阅读全文
posted @ 2021-04-28 16:52 while(1){happiness;} 阅读(182) 评论(0) 推荐(0)
摘要: 如果使用gluon动态图的方法进行训练的直接将对应的中间变量return就好了,这里说明一下Mxnet使用加载已训练模型的方法输出中间特征图。 model_path = r'/home/PycharmProjects/densenet' sym, arg_params, aux_params = m 阅读全文
posted @ 2021-04-28 16:46 while(1){happiness;} 阅读(104) 评论(0) 推荐(0)
摘要: 引言 正在做mxnet框架下,使用deeplesion数据集yolov3的病灶检测的项目,训练过程中产生了access violated reading 0xFFFFF...的错误,经过google又说是应为backward()在autograd.record()作用域的原因,如下所示:所以想研究一 阅读全文
posted @ 2021-04-28 16:45 while(1){happiness;} 阅读(418) 评论(0) 推荐(0)
摘要: 引言: 前几天被同事问到了一个问题:当batch_size=1时,Batch Normalization还有没有意义,没有说出个所以然,才意识到自己从来不好好读过BN的论文(Batch Normalization: Accelerating Deep Network Training by Redu 阅读全文
posted @ 2021-04-28 15:16 while(1){happiness;} 阅读(635) 评论(0) 推荐(1)