上一页 1 ··· 11 12 13 14 15 16 17 18 19 ··· 132 下一页
摘要: 目录P166 P166 讲一下为什么%rsp会变成0x7f...838:注意到0x7f...840-0x7f...838=0x8,也就是八个字节,而x86-64的一个地址的标号是八个字节,所以相当于刚好存储了一个地址,也就是从函数返回之后要执行的指令所在的地址 阅读全文
posted @ 2025-07-21 16:06 最爱丁珰 阅读(10) 评论(0) 推荐(0)
摘要: 目录P164 P164 释放只是增加指针而已,原来的数据仍然在内存里面但是不是栈的一部分了 栈帧是用于特定call指令的一个内存块,也一个call指令的时候,会调用某一个函数,如果寄存器无法存储下所有这个函数的开始信息(见图3-25的文字),那么就会在栈上为这次调用分配额外的信息,这一部分存储额外信 阅读全文
posted @ 2025-07-21 15:24 最爱丁珰 阅读(5) 评论(0) 推荐(0)
摘要: 目录P127 P127 简单来说,栈就是一块连续的内存区域,传递信息,分配数据,管理调用等 push的源操作数可以是寄存器,内存和立即数,pop的目的必须是寄存器 阅读全文
posted @ 2025-07-21 15:02 最爱丁珰 阅读(15) 评论(0) 推荐(0)
摘要: 这个写的也太不清晰了。。。 设\(h,w\)分别表示归一化高度和归一化宽度,\(H,W\)表示输入图像的原高度和原宽度,则锚框的高度和宽度分别为\(H\times h,W\times w\) 缩放比:归一化面积,即\(hw=s^2\) 宽高比:归一化宽度和归一化高度的比例,即\(\frac{Ww}{ 阅读全文
posted @ 2025-07-20 20:16 最爱丁珰 阅读(19) 评论(0) 推荐(0)
摘要: normalize = torchvision.transforms.Normalize( mean=[0.485, 0.456, 0.406], # 各通道的均值 std=[0.229, 0.224, 0.225] # 各通道的标准差 ) 均值 [0.485, 0.456, 0.406] 和 标准 阅读全文
posted @ 2025-07-20 17:12 最爱丁珰 阅读(20) 评论(0) 推荐(0)
摘要: 对于代码 dataset = torchvision.datasets.CIFAR10(root="../data", train=is_train, transform=augs, download=True) 传入的参数不会改变数据集的总大小,它只是会在我们读取数据的时候,对原数据进行增广,然后 阅读全文
posted @ 2025-07-20 14:55 最爱丁珰 阅读(5) 评论(0) 推荐(0)
摘要: 补充一下for循环在O1下的行为 可以看到,没有用的保护代码是会被编译器移除的 阅读全文
posted @ 2025-07-20 13:55 最爱丁珰 阅读(9) 评论(0) 推荐(0)
摘要: 目录P146 P146 解释一下这个流水线的含义(结合视频的理解):一条指令的处理有多个步骤,而不同指令的同一步骤不可以并行(因为对于这个步骤来说只有一个“工人”),同一指令的不同步骤不可以并行(因为必须按照顺序作业),但是不同指令的有些不同步骤可以并行(比如从内存中读取这条命令就不需要知道前面命令 阅读全文
posted @ 2025-07-20 13:44 最爱丁珰 阅读(15) 评论(0) 推荐(0)
摘要: leaq的出现就是用一次操作来进行简单的加乘计算的,这样就不用用很多条操作去完成了。就把leaq理解成去读寄存器的值,而不是寄存器的地址,或者寄存器所引用的地址,或者寄存器所引用的地址存储的值。而其他操作加上括号还是代表引用内存 来补充一个例子,下面的例子是正确的,好好看 阅读全文
posted @ 2025-07-19 19:31 最爱丁珰 阅读(9) 评论(0) 推荐(0)
摘要: 目录P113 P113 补充一些定义 阅读全文
posted @ 2025-07-19 18:54 最爱丁珰 阅读(3) 评论(0) 推荐(0)
上一页 1 ··· 11 12 13 14 15 16 17 18 19 ··· 132 下一页