08 2021 档案

运筹学笔记13 两阶段法
摘要:引入两个人工变量x4,x5,各自追加到每个等式约束条件中。但是这样强制插入原来的等式约束条件中后,虽然说有单位矩阵了,但是有可能破坏原来的等式约束条件; 也有可能不破坏(如果最后的x4,x5算出来的值都为0的话),如果有一个是正的大于零的,那么就破坏了原来的等式约束条件,也即原来的等式约束条件就不应 阅读全文

posted @ 2021-08-29 14:10 lmqljt 阅读(6706) 评论(0) 推荐(0)

运筹学笔记12 大M法
摘要:引入M,其中M是一个充分大的正数。由此,目标函数也改变为zM. 如此构造的线性规划问题我们记作LPM,称之为辅助线性规划问题,也即在原来的线性规划问题的基础上,改造了其等式约束条件,然后有对目标函数施加了惩罚项,Mx4,Mx5。 因为M是充分大的正数,所以即便x4,x5很小,只要x4,x5不等于0, 阅读全文

posted @ 2021-08-29 12:16 lmqljt 阅读(8163) 评论(0) 推荐(0)

运筹学笔记11单纯形法的进一步讨论
摘要:根据基可以写出对应的典式,根据典式可以写出对应的单纯形表。反之,根据单纯形表,也可以写出典式。典式当中的非基变量移到等号的右侧,则可以得到典式的等价形式; 如下图所示。当所有非基变量的检验数都是负数时,那我们来看下目标函数等价形式的中的rjxj项,如下图所示。 上图中,圈主部分中的xj只要不取零(x 阅读全文

posted @ 2021-08-28 23:00 lmqljt 阅读(2527) 评论(0) 推荐(0)

ICDAR2013
摘要:参考:https://www.cnblogs.com/dmyu/p/6483357.html以及博主相关文章等。 阅读全文

posted @ 2021-08-27 11:01 lmqljt 阅读(92) 评论(0) 推荐(0)

Python装饰器,Python闭包
摘要:可参考:https://www.cnblogs.com/lianyingteng/p/7743876.html suqare(5)等价于power(2)(5);cube(5)等价于power(3)(5); power相当于是一个工厂,由于参数不同,得到了两个不同的生产线,一个是square一个是cu 阅读全文

posted @ 2021-08-26 21:37 lmqljt 阅读(75) 评论(0) 推荐(0)

Python装饰器Decorators
摘要:def hi(name="yasoob"): return "hi " + name print(hi()) # 我们甚至可以将一个函数赋值给一个变量,比如 greet=hi # 我们这里没有在使用小括号,因为我们并不是在调用hi函数 # 而是在将它放在greet变量里头。我们尝试运行下这个 pri 阅读全文

posted @ 2021-08-26 19:40 lmqljt 阅读(55) 评论(0) 推荐(0)

PyTorch DataSet Normalization torchvision.transforms.Normalize()
摘要:特征缩放, 在这种情况下,我们不仅仅考虑是一个值的数据集,我们考虑的是具有多个特征和相关的值的样本或元素的数据集。 假如正在处理一个人的数据集, 归一化数据集有许多不同的方法,而标准化只是其中的一种特定的方式。 所以,如果我们处理图像,当我们使用神经网络时, 特征一般是rgb彩色通道。 先看简单的方 阅读全文

posted @ 2021-08-25 17:36 lmqljt 阅读(186) 评论(0) 推荐(0)

无鼠标打开Windows设备管理
摘要:转载:https://blog.csdn.net/weixin_39946767/article/details/118644619 阅读全文

posted @ 2021-08-25 13:08 lmqljt 阅读(191) 评论(0) 推荐(0)

Training loop Run Builder
摘要:以下内容来自deeplizard pyorch_P31 阅读全文

posted @ 2021-08-25 11:07 lmqljt 阅读(30) 评论(0) 推荐(0)

PyTorch DataLoader NumberWorkers Deep Learning Speed Limit Increase
摘要:这意味着训练过程将按顺序在主流程中工作。 即:run.num_workers。 ,此外, ,因此,主进程不需要从磁盘读取数据;相反,这些数据已经在内存中准备好了。 这个例子中,我们看到了20%的加速效果,那么你可能会想, 我们考虑一个工人可能足够让队列中充满了主进程的数据,然后将更多的数据添加到队列 阅读全文

posted @ 2021-08-24 23:41 lmqljt 阅读(141) 评论(0) 推荐(0)

python中collections.OrderedDict()
摘要:import collections #from collections import OrderededDict my_orderDict=collections.OrderedDict(house=None,name='lily',age=18,degree="Dr.",b=1,a=2,) fo 阅读全文

posted @ 2021-08-24 19:20 lmqljt 阅读(177) 评论(0) 推荐(0)

CNN Training Loop Refactoring Simultaneous Hyperameter Testing
摘要:上例中, 尝试两个不同的值 为此: alt+shift可以有多个光标,再jupyter notebook中。 alt+d,alt+shift,ctrl+鼠标左键多点几个,都可以同时选择多个目标,并进行共同操作;再jupyter notebook中。 当前例子下: 先看下面的, 比如epoch编号或号 阅读全文

posted @ 2021-08-23 16:40 lmqljt 阅读(67) 评论(0) 推荐(0)

Training loop Run Builder和namedtuple()函数
摘要:namedtuple()函数见:https://www.runoob.com/note/25726和https://www.cnblogs.com/os-python/p/6809467.html namedtuple:namedtuple类位于collections模块,有了namedtuple后 阅读全文

posted @ 2021-08-23 16:19 lmqljt 阅读(95) 评论(0) 推荐(0)

超参数调参和验证实验
摘要:上面之所以total_loss+=loss.item()*batch_size有网友说是,因为size_average=True是默认的,多以要乘以batch_size. 阅读全文

posted @ 2021-08-23 15:06 lmqljt 阅读(156) 评论(0) 推荐(0)

Tensorboard SummaryWriter()
摘要:import torch import torch.nn as nn import torch.nn.functional as F import torchvision import torchvision.transforms as transforms import torch.optim a 阅读全文

posted @ 2021-08-23 14:48 lmqljt 阅读(722) 评论(0) 推荐(0)

运筹学笔记9最优性的检验
摘要:上图中,基本可行解首先是基本解,基本解中非基变量的值全等于零,所以后面n-m个非基变量取值都是零。 基变量的值是表中最后一列,最后一行上面的值。因为取定的基是可行基,所以基本解就是基本可行解了。 基本可行解代入到目标函数里面以后,函数值就是表最右下角的z0。 所以单纯性表给我们的信息很多。 那么基本 阅读全文

posted @ 2021-08-21 15:25 lmqljt 阅读(1483) 评论(0) 推荐(0)

运筹学笔记7单纯形表
摘要:改写,改写的目标是约束条件中所有的基变量都用非基变量来表示。 目标函数,用非基变量来表示。 联立后的方程组的特点是,用非基变量表示了约束条件中的基变量。 典式的特点以下图中的式子为例: 我们选定了基B是P1,P2,即B=(P1,P2),此时基变量就是x1,x2,那么x3,x4就是非基变量。 下图右下 阅读全文

posted @ 2021-08-21 13:08 lmqljt 阅读(5437) 评论(0) 推荐(0)

Win10 pycharm中显示PyTorch tensorboard图
摘要:import numpy import numpy as np import torch import matplotlib.pyplot as plt import torch.nn as nn import torch.nn.functional as F import torch.optim 阅读全文

posted @ 2021-08-20 20:34 lmqljt 阅读(368) 评论(0) 推荐(0)

conda cheat sheet下载地址 可直接百度这个名字
摘要:最新地址: Cheat sheet — conda 24.5.0 documentationhttps://docs.conda.io/projects/conda/en/stable/user-guide/cheatsheet.html 阅读全文

posted @ 2021-08-20 15:29 lmqljt 阅读(98) 评论(0) 推荐(0)

torch.cat()和torch.stack()
摘要:torch.cat() 和 torch.stack()略有不同torch.cat(tensors,dim=0,out=None)→ Tensortorch.cat()对tensors沿指定维度拼接,但返回的Tensor的维数不会变,可理解为续接;torch.stack(tensors,dim=0,o 阅读全文

posted @ 2021-08-20 10:45 lmqljt 阅读(691) 评论(0) 推荐(0)

运筹学笔记6初始可行基
摘要:可看到,上图中的线性规划问题已经是一个标准形了;且其等式约束条件中有两个方程,恰好其第三四列构成了一个单位矩阵,是其子矩阵。 我们可把第三列第四列组成的单位矩阵取为基,这个基恰恰就是可行基,那我们的初始可行基也就找到了。这就是第一种类型:约束方程组的 系数矩阵中如果有一个单位矩阵,那么我们把他取为初 阅读全文

posted @ 2021-08-19 15:52 lmqljt 阅读(3126) 评论(0) 推荐(0)

运筹学笔记5单纯形法
摘要:前面几节课,我们认识了线性规划的标准型,和它的各种解的概念,以及线性规划的集合特征,还有就是图解法,但是这种方法,有它的缺陷,只能求解具有两个变量的线性规划问题。 在变量多的情况下,方法就失效了。 具体使用方法,首先先找一个可行域的顶点,比如下图中的x1, 与其他的可行解进行比较,用进行寻找的筛查技 阅读全文

posted @ 2021-08-19 11:16 lmqljt 阅读(640) 评论(0) 推荐(0)

运筹学笔记4线性规划问题的几何特征
摘要:也即是从几何上给线性规划问题的概念给一个具体的说明。 连接x1,x2的线段,如果包括x1,x2端点则称为闭线段,不包括则称为开线段。 数学上表述为,任取线段内部的某一点x,如果能写出/描述出这点x的轨迹或其坐标变化的规律, 就可以。为了做到这一点,我们设想有x1,x2,分别有以x1,x2为终点的向量 阅读全文

posted @ 2021-08-19 10:23 lmqljt 阅读(1982) 评论(0) 推荐(0)

运筹学笔记3线性规划问题的“解”
摘要:当基选定之后,当前问题中所有变量的角色也就确定下来了。 上述B2是上述问题的一个基,并选用了x3,x4两个变量的约束系数。此时,我们就称x3,x4是当前基下的两个基变量。同时另外两个变量x1,x2就成为非基变量。 将线性方程组Ax=B尽心了改写,具体做法是,把矩阵A分成了两组,一组是基变量的系数构成 阅读全文

posted @ 2021-08-18 23:01 lmqljt 阅读(3194) 评论(0) 推荐(0)

运筹学笔记2标准形
摘要:上述标准形书写比较麻烦,想着如何能转换成书写方便的写法呢?如下: 然后,标准形就可以写成如下简洁的矩阵形式: 上图中最后一行条件可保证,Ax=b有解,有无穷解。 阅读全文

posted @ 2021-08-18 22:58 lmqljt 阅读(597) 评论(0) 推荐(0)

运筹学笔记1图解法
摘要:1. 图解法: 阅读全文

posted @ 2021-08-18 22:10 lmqljt 阅读(635) 评论(0) 推荐(0)

导航