上一页 1 ··· 11 12 13 14 15 16 17 18 19 ··· 22 下一页

2021年8月24日

python中collections.OrderedDict()

摘要: import collections #from collections import OrderededDict my_orderDict=collections.OrderedDict(house=None,name='lily',age=18,degree="Dr.",b=1,a=2,) fo 阅读全文

posted @ 2021-08-24 19:20 lmqljt 阅读(168) 评论(0) 推荐(0)

2021年8月23日

CNN Training Loop Refactoring Simultaneous Hyperameter Testing

摘要: 上例中, 尝试两个不同的值 为此: alt+shift可以有多个光标,再jupyter notebook中。 alt+d,alt+shift,ctrl+鼠标左键多点几个,都可以同时选择多个目标,并进行共同操作;再jupyter notebook中。 当前例子下: 先看下面的, 比如epoch编号或号 阅读全文

posted @ 2021-08-23 16:40 lmqljt 阅读(59) 评论(0) 推荐(0)

Training loop Run Builder和namedtuple()函数

摘要: namedtuple()函数见:https://www.runoob.com/note/25726和https://www.cnblogs.com/os-python/p/6809467.html namedtuple:namedtuple类位于collections模块,有了namedtuple后 阅读全文

posted @ 2021-08-23 16:19 lmqljt 阅读(78) 评论(0) 推荐(0)

超参数调参和验证实验

摘要: 上面之所以total_loss+=loss.item()*batch_size有网友说是,因为size_average=True是默认的,多以要乘以batch_size. 阅读全文

posted @ 2021-08-23 15:06 lmqljt 阅读(148) 评论(0) 推荐(0)

Tensorboard SummaryWriter()

摘要: import torch import torch.nn as nn import torch.nn.functional as F import torchvision import torchvision.transforms as transforms import torch.optim a 阅读全文

posted @ 2021-08-23 14:48 lmqljt 阅读(716) 评论(0) 推荐(0)

2021年8月21日

运筹学笔记9最优性的检验

摘要: 上图中,基本可行解首先是基本解,基本解中非基变量的值全等于零,所以后面n-m个非基变量取值都是零。 基变量的值是表中最后一列,最后一行上面的值。因为取定的基是可行基,所以基本解就是基本可行解了。 基本可行解代入到目标函数里面以后,函数值就是表最右下角的z0。 所以单纯性表给我们的信息很多。 那么基本 阅读全文

posted @ 2021-08-21 15:25 lmqljt 阅读(1456) 评论(0) 推荐(0)

运筹学笔记7单纯形表

摘要: 改写,改写的目标是约束条件中所有的基变量都用非基变量来表示。 目标函数,用非基变量来表示。 联立后的方程组的特点是,用非基变量表示了约束条件中的基变量。 典式的特点以下图中的式子为例: 我们选定了基B是P1,P2,即B=(P1,P2),此时基变量就是x1,x2,那么x3,x4就是非基变量。 下图右下 阅读全文

posted @ 2021-08-21 13:08 lmqljt 阅读(5369) 评论(0) 推荐(0)

2021年8月20日

Win10 pycharm中显示PyTorch tensorboard图

摘要: import numpy import numpy as np import torch import matplotlib.pyplot as plt import torch.nn as nn import torch.nn.functional as F import torch.optim 阅读全文

posted @ 2021-08-20 20:34 lmqljt 阅读(355) 评论(0) 推荐(0)

conda cheat sheet下载地址 可直接百度这个名字

摘要: 最新地址: Cheat sheet — conda 24.5.0 documentationhttps://docs.conda.io/projects/conda/en/stable/user-guide/cheatsheet.html 阅读全文

posted @ 2021-08-20 15:29 lmqljt 阅读(91) 评论(0) 推荐(0)

torch.cat()和torch.stack()

摘要: torch.cat() 和 torch.stack()略有不同torch.cat(tensors,dim=0,out=None)→ Tensortorch.cat()对tensors沿指定维度拼接,但返回的Tensor的维数不会变,可理解为续接;torch.stack(tensors,dim=0,o 阅读全文

posted @ 2021-08-20 10:45 lmqljt 阅读(665) 评论(0) 推荐(0)

上一页 1 ··· 11 12 13 14 15 16 17 18 19 ··· 22 下一页

导航