摘要:第一次接触的时候,已经理解了,但是过了一段时间,就有点忘了下面这两篇文章,不错!可以帮助回忆与理解。 https://blog.csdn.net/zyqdragon/article/details/72353420 https://blog.csdn.net/xys430381_1/article/
阅读全文
摘要:恢复内容开始 概括: 一. view/reshape 作用几乎一模一样,保证size不变:意思就是各维度相乘之积相等(numel()),且具有物理意义,别瞎变,要不然破坏数据污染数据; 数据的存储、维度顺序非常重要,需要时刻记住 size没有保持固定住,报错 二。 Squeeze与unsqueeze
阅读全文
摘要:第一维度 第二维度上去取值;其他维度以此类推
阅读全文
摘要:https://blog.csdn.net/ljs_a/article/details/79848994
阅读全文
摘要:#select by mask x = torch.randn(3,4) print(x) # tensor([[ 1.1132, 0.8882, -1.4683, 1.4100], # [-0.4903, -0.8422, 0.3576, 0.6806], # [-0.7180, -0.8218,
阅读全文
摘要:参考:https://www.bbsmax.com/A/MAzAOpPn59/一、jupyter notebook里ipynb文件转为py文件 法一: 在xxx.ipynb所在目录下,打开终端,并输入命令: jupyter nbconvert --to script xxx.ipynb 其中xxx.
阅读全文
摘要:1.错误报time out 2.怀疑连接不到github.com,在cmd窗口中,尝试ping一下百度。 网络正常 3.然后再ping一下github.com 4. 打开C:\Windows\System32\drivers\etc\hosts,内容如下:确实没有github.com的解析 在文件末
阅读全文
摘要:pytorch使用torch.nn.Sequential快速搭建神经网络 Flatten层用来将输入“压平”,即把多维的输入一维化,常用在从卷积层到全连接层的过渡。Flatten不影响batch的大小。保留第一维的维度,其他相乘为一个数. 链接 pytorch函数之nn.Linear class t
阅读全文