摘要:
张量的拼接有两种主要的基本策略: 不增加张量的维度,只增加某个维度方向的长度:cat()增加张量的维度,不增加单个维度方向的长度:stack()第2章 增加张量长度的拼接:cat()2.1 基本原理 2.2 函数说明功能:在不改变张量维度的情况下,通过增加张量在某个维度方向的长度,把两个张量拼接起来 阅读全文
posted @ 2021-11-14 22:50
咖啡陪你
阅读(1224)
评论(0)
推荐(0)
摘要:
写在前面给定一个样本集,怎么得到该样本集的分布密度函数,解决这一问题有两个方法: 1.参数估计方法简单来讲,即假定样本集符合某一概率分布,然后根据样本集拟合该分布中的参数,例如:似然估计,混合高斯等,由于参数估计方法中需要加入主观的先验知识,往往很难拟合出与真实分布的模型;2.非参数估计和参数估计不 阅读全文
posted @ 2021-11-14 17:34
咖啡陪你
阅读(757)
评论(0)
推荐(0)
摘要:
导读 图解半监督的各种方法的关键思想。 计算机视觉的半监督学习方法在过去几年得到了快速发展。目前最先进的方法是在结构和损失函数方面对之前的工作进行了简化,以及引入了通过混合不同方案的混合方法。 在这篇文章中,我会通过图解的方式解释最近的半监督学习方法的关键思想。 1、自训练 在该半监督公式中,对有标 阅读全文
posted @ 2021-11-14 15:35
咖啡陪你
阅读(193)
评论(0)
推荐(0)
摘要:
之前介绍了无监督学习(UL)以及自监督学习(self-supervise)的相关论文和方法。今天,介绍几篇关于半监督学习(SSL)相关的论文,包括MixMatch(NeurIPS 19)和ReMixMatch(ICLR 20)。需要注意的是,这里我们用SSL指代semi-supervised lea 阅读全文
posted @ 2021-11-14 15:35
咖啡陪你
阅读(815)
评论(0)
推荐(0)
摘要:
1.用法 torch.where()函数的作用是按照一定的规则合并两个tensor类型。 torch.where(condition,a,b)其中 输入参数condition:条件限制,如果满足条件,则选择a,否则选择b作为输出。 注意:a和b是tensor. 2.例子 import torchx 阅读全文
posted @ 2021-11-14 14:24
咖啡陪你
阅读(3696)
评论(0)
推荐(0)
摘要:
对于分类问题,标签可以是类别索引值也可以是one-hot表示。以10类别分类为例,lable=[3] 和label=[0, 0, 0, 1, 0, 0, 0, 0, 0, 0]是一致的. 现在给定索引标签,怎么将其转换为one-hot标签表示? import torchimport torch.nn 阅读全文
posted @ 2021-11-14 14:18
咖啡陪你
阅读(632)
评论(0)
推荐(0)

浙公网安备 33010602011771号