上一页 1 2 3 4 5 6 ··· 19 下一页
摘要: 线性回归Linear Regression线性回归是分析一个变量与另外一个(多个)变量之间关系的方法因变量:y 自变量:x 关系:线性 y=wx+b 分析:求解w,b 求解步骤:1.... 阅读全文
posted @ 2020-07-15 17:52 龙雪 阅读(350) 评论(0) 推荐(0) 编辑
摘要: PyTorch中,一般函数加下划线代表直接在原来的 Tensor 上修改,即in-place操作 阅读全文
posted @ 2020-07-15 15:56 龙雪 阅读(724) 评论(0) 推荐(0) 编辑
摘要: Robert Long对消融研究(或消融实验)定义:通常用于神经网络,尤其是相对复杂的神经网络,如R-CNN。我们的想法是通过删除部分网络并研究网络的性能来了解网络“消融”的原始含义是手术切除身体组织。ablat... 阅读全文
posted @ 2020-07-15 11:50 龙雪 阅读(14549) 评论(2) 推荐(2) 编辑
摘要: 张量操作一、张量的拼接与切分1.1 torch.cat()功能:将张量按维度dim进行拼接tensors:张量序列dim:要拼接的维度1.2 torch.stack()功能:在新创建的维度的上进行拼接tensor... 阅读全文
posted @ 2020-07-14 23:38 龙雪 阅读(1423) 评论(0) 推荐(0) 编辑
摘要: Tensor 概念张量的数学概念:张量是一个多维数组,它是标量、向量、矩阵的高位扩展张量在pytorch中的概念:tensor之前是和pytorch早期版本中的variable一起使用的。variable是tor... 阅读全文
posted @ 2020-07-13 23:21 龙雪 阅读(2958) 评论(0) 推荐(0) 编辑
摘要: 多核学习既可以用在多任务学习,也可以用在多视图学习,也有研究同时对多任务和多视图同时采用多核的,目前已经有通用多任务多核学习方法。如果将多核用在多任务学习,相当于不同任务共享子空间的同时,还有各自特... 阅读全文
posted @ 2020-07-12 21:52 龙雪 阅读(1106) 评论(1) 推荐(0) 编辑
摘要: 正则化(Regularization)机器学习中几乎都可以看到损失函数后面会添加一个额外项,常用的额外项一般有两种,称作L1正则化 和 L2正则化,或者 L1范数 和 L2范数。L1正则化和L2正则化可以看做是损... 阅读全文
posted @ 2020-07-10 10:27 龙雪 阅读(1306) 评论(0) 推荐(0) 编辑
摘要: 临时使用pip install -i https://pypi.tuna.tsinghua.edu.cn/simple package-name注意,simple 不能少, 是 https 而不是 http设为默... 阅读全文
posted @ 2020-07-06 22:34 龙雪 阅读(3574) 评论(0) 推荐(1) 编辑
摘要: 进入https://download.pytorch.org/whl/torch_stable.html选择自己对应版本的pytorch或torchvision等等文件下载即可 ... 阅读全文
posted @ 2020-07-04 23:25 龙雪 阅读(2404) 评论(0) 推荐(0) 编辑
摘要: pytorch 计算 CrossEntropyLoss 不需要经 softmax 层激活!用 pytorch 实现自己的网络时,如果使用CrossEntropyLoss 我总是将网路输出经 softmax激活层后... 阅读全文
posted @ 2020-04-25 00:39 龙雪 阅读(638) 评论(4) 推荐(0) 编辑
上一页 1 2 3 4 5 6 ··· 19 下一页