摘要: 21-26 -相对路径 当我们要跳转到服务器内部页面是,一般我们会使用相对路径。 相对路径一般都会使用.或者..开头 ./或者../ ./可以省略不写,如果不写./就相当于写了./ ./当前目录寻找 ../当前文件所在目录的上一级目录 -id属性(唯一不重复的),每一个标签都可以添加一个id属性 I 阅读全文
posted @ 2021-11-18 20:54 tanyayangyang 阅读(28) 评论(0) 推荐(0)
摘要: 16-20 -语义化标签 结构+表现+行为=网页 结构由html来负责(标题,内容,头) -标题标签 h1-h6 H1最重要 h6最不重要 <h1><\h1> <h2><\h2> H1在网页中重要性仅次于title,一般情况下只有一个h1 一般我们只会使用到h1-h3,h4-h6很少用 在页面中独占 阅读全文
posted @ 2021-11-17 16:46 tanyayangyang 阅读(24) 评论(0) 推荐(0)
摘要: -UTF-8 万国码 开发时我们使用的字符集都是UTF-8 GB2312 国标 -<meta> 通过meta标签设置网页字符集,避免乱码问题。 <meta charset="utf-8"> 此处为设置字符集,避免乱码 用来设置网页的元数据,底层数据,网页的属性。 元数据不是给用户看的 它是自结束标签 阅读全文
posted @ 2021-11-16 15:50 tanyayangyang 阅读(26) 评论(0) 推荐(0)
摘要: class conv_try(nn.Module): def __init__(self): super(conv_try, self).__init__() # self.conv1 = nn.Conv1d(1, 32, kernel_size=3, stride=2, padding=1) # 阅读全文
posted @ 2021-11-08 12:27 tanyayangyang 阅读(1172) 评论(0) 推荐(0)
摘要: 有numpy和torch两种类型的数据 z = mean.clone().detach() + eps * torch.exp(logstd) 源代码这边报错了,修改如下 eps = eps.cuda() z = mean.cuda()+ eps * torch.exp(logstd).cuda() 阅读全文
posted @ 2021-11-08 09:49 tanyayangyang 阅读(2074) 评论(0) 推荐(0)
摘要: 1.谷歌学术搜索要搜的论文(随便找一个) 点击灰色的引号 Cite 2.点击copy 3.找到编辑的模板的文件夹内的bib文件或者自己创建一个 4.插入引用的顺序比较重要,第一篇引用则放在第一个位置,容易找(一定记得保存,否则没用) 这边我插在第一个位置 5.复制刚刚需要引用的article后面的H 阅读全文
posted @ 2021-10-14 15:23 tanyayangyang 阅读(157) 评论(0) 推荐(0)
摘要: -mnist Torchvision里面已经有了一些数据集 Train要训练集还是测试集 要下载就设置True不用下载则False -cifar-10 32*32的小图片分为十类,训练集五万个测试集1万样本 -logistic函数 在x=+-5左右会接近饱和情况 这个sigmoid函数的导数类似于正 阅读全文
posted @ 2021-10-09 21:03 tanyayangyang 阅读(94) 评论(0) 推荐(0)
摘要: __call__可以实现调用 函数其实是一个对象: >>> f = abs >>> f.__name__ 'abs' >>> f(-123) 123 由于 f 可以被调用,所以,f 被称为可调用对象。 所有的函数都是可调用对象。 一个类实例也可以变成一个可调用对象,只需要实现一个特殊方法__call 阅读全文
posted @ 2021-10-09 14:44 tanyayangyang 阅读(27) 评论(0) 推荐(0)
摘要: 1)第一步准备数据集,第二步设计模型,第三步构造损失和优化器,第四步写训练的周期,前馈(损失)反馈(反馈算梯度)更新(用梯度下降算法更新权重) 2)使用mini-batch风格,使用y_hat = wx+b,minibatch就是一次把三个样本的结果都求 出来。 广播就是把[1,2,3]T,扩充。扩 阅读全文
posted @ 2021-10-06 11:19 tanyayangyang 阅读(62) 评论(0) 推荐(0)