摘要: getattr() 函数用于返回一个对象属性值; 语法 参数 返回值:对象的属性 使用: express1 for var in list (if express2) 语法 返回值:一般为一个list类型 用法1:express1 for var in list 用法2:express1 for v 阅读全文
posted @ 2019-07-24 11:28 陈柯成 阅读(3379) 评论(0) 推荐(0) 编辑
摘要: 涉及一些pytorch的API内容在此进行整理 损失函数:Binary-Cross-Entropy loss 创建一个标准来度量目标和输出之间的二值交叉熵 $CrossEntropy(t,o) = -(t*log(o) + (1-t) * log(1-o)) $ 这是用来测量误差的重建,例如一个自动 阅读全文
posted @ 2019-07-19 14:47 陈柯成 阅读(645) 评论(0) 推荐(0) 编辑
摘要: for basic discriminator of GANs 判别器用于感知生成器产生的合成图片和ground-truth的差异,并旨在实现区分出fake or real; 同时,判别器的输出也是经过一系列的conv后得到的一个标量值,一般使这个值激活在0~1之间; 但是,这样的结果存在着一些问题 阅读全文
posted @ 2019-07-18 16:12 陈柯成 阅读(11505) 评论(0) 推荐(0) 编辑
摘要: 1.小的数据集进行训练在简单的任务是可行的,但是在比较复杂的任务中,必须使用比较大型的数据集进行训练。 2.将相同底层场景的不同描述同时输入到模型中,对于提升模型的性能和表现有十分突出的作用。 阅读全文
posted @ 2019-07-16 11:25 陈柯成 阅读(170) 评论(0) 推荐(0) 编辑
摘要: deconv的其中一个用途是做upsampling,即增大图像尺寸。 dilated convolution: dilated conv,中文可以叫做空洞卷积或者扩张卷积。 首先是诞生背景,在图像分割领域,图像输入到CNN(典型的网络比如FCN[3])中,FCN先像传统的CNN那样对图像做卷积再po 阅读全文
posted @ 2019-07-12 16:37 陈柯成 阅读(2320) 评论(0) 推荐(1) 编辑
摘要: Introduction: Deconvolution; Computational costs; Strided convolutional nets; Markov patches; 1. Q: The task of texture synthesis have considerable co 阅读全文
posted @ 2019-07-10 21:34 陈柯成 阅读(657) 评论(0) 推荐(0) 编辑
摘要: Introduction 1. develop a common framework for all problems that are the task of predicting pixels from pixels. 2. CNNs learn to minimize a loss funct 阅读全文
posted @ 2019-07-09 20:29 陈柯成 阅读(1570) 评论(0) 推荐(0) 编辑
摘要: Introducation 1. intruduce the conditional version of GANs, which can be constructed by simply feeding the data , y. 2. the CGANs can be used to learn 阅读全文
posted @ 2019-07-08 16:56 陈柯成 阅读(676) 评论(0) 推荐(0) 编辑
摘要: 1.解决tensorflow报错ValueError: Variable conv1/weights already exists, disallowed. 解决方法1:重开一个控制台 解决方法2:在代码的开头加上一句 tf.reset_default_graph():Clears the defa 阅读全文
posted @ 2019-05-22 09:53 陈柯成 阅读(329) 评论(0) 推荐(0) 编辑
摘要: matlab中噪声功率、噪声方差关系 以matlab中awgn函数为例说明: 在matlab中无论是wgn还是awgn函数,实质都是由randn函数产生的噪声。即:wgn函数中调用了randn函数,而awgn函数中调用了wgn函数。 根据awgn的实现代码可以知道”向已知信号添加某个信噪比(SNR) 阅读全文
posted @ 2019-05-07 10:54 陈柯成 阅读(3711) 评论(0) 推荐(0) 编辑