上一页 1 ··· 15 16 17 18 19

2019年4月10日

如何自动生成图片用于测试 pytorch(No image? No need image)

摘要: if __name__ == '__main__': module = CAM_Module() in_data = torch.randint(0, 255, (2, 3, 7, 7), dtype=torch.float32) 阅读全文

posted @ 2019-04-10 20:57 Hebye 阅读(356) 评论(0) 推荐(0)

语义分割之Dual Attention Network for Scene Segmentation

摘要: Dual Attention Network for Scene Segmentation 在本文中,我们通过 基于自我约束机制捕获丰富的上下文依赖关系来解决场景分割任务。 与之前通过多尺度特征融合捕获上下文的工作不同,我们提出了一种双重注意网络(DANet)来自适应地集成局部特征及其全局依赖性。 阅读全文

posted @ 2019-04-10 20:23 Hebye 阅读(8393) 评论(1) 推荐(0)

2019年4月9日

每日一问

摘要: 2019.4.9 在闭区间[0, 1]内,我们随机取出两点(服从均匀分布)A和B,形成一个新的闭区间[min{A,B}, max{A,B}]。如此反复n次,我们就有了n个随机闭区间。那么这n个闭区间不出现重叠的概率是多大呢? 答: Datawhale 是得到2n个次序的概率在概率密度上的积分,积分上 阅读全文

posted @ 2019-04-09 18:53 Hebye 阅读(455) 评论(0) 推荐(0)

关于深度学习中的batch_size

摘要: 5.4.1 关于深度学习中的batch_size 举个例子: 例如,假设您有1050个训练样本,并且您希望设置batch_size等于100.该算法从训练数据集中获取前100个样本(从第1到第100个)并训练网络。接下来,它需要第二个100个样本(从第101到第200)并再次训练网络。我们可以继续执 阅读全文

posted @ 2019-04-09 16:38 Hebye 阅读(1578) 评论(0) 推荐(0)

简单了解pytorch的forward

摘要: 这里是给出的一个代码。 init只是规定了conv的输入通道数量、输出通道数量和卷积核尺寸。 然后在神经网络中,充当卷积层的是forward部分。 阅读全文

posted @ 2019-04-09 16:25 Hebye 阅读(10708) 评论(0) 推荐(1)

2019年4月8日

Softmax

摘要: tf.nn.softmax中dim默认为-1,即,tf.nn.softmax会以最后一个维度作为一维向量计算softmax softmax是什么? 函数 Softmax(x) 也是一个 non-linearity, 但它的特殊之处在于它通常是网络中一次操作. 这是因为它接受了一个实数向量并返回一个概 阅读全文

posted @ 2019-04-08 14:47 Hebye 阅读(1361) 评论(0) 推荐(0)

深度学习中Dropout原理解析

摘要: 1. Dropout简介 1.1 Dropout出现的原因 在机器学习的模型中,如果模型的参数太多,而训练样本又太少,训练出来的模型很容易产生过拟合的现象。 在训练神经网络的时候经常会遇到过拟合的问题,过拟合具体表现在:模型在训练数据上损失函数较小,预测准确率较高;但是在测试数据上损失函数比较大,预 阅读全文

posted @ 2019-04-08 10:59 Hebye 阅读(2157) 评论(0) 推荐(0)

上一页 1 ··· 15 16 17 18 19

导航