上一页 1 ··· 19 20 21 22 23 24 25 26 27 ··· 132 下一页
摘要: P\(1\) 枚举使用多少张\(5\)分的邮票然后判断是否可以整除即可 但是第二问这个归纳比较幽默,搞不懂这种题目为什么要用归纳:n>=12时n-3的换法+一张3,归纳假设是12~n-1都能换 P\(2\) a.数学归纳法 b.与普通的汉诺塔一样,只不过现在不可以直接从\(A\)移动到\(B\)而已 阅读全文
posted @ 2025-04-08 10:22 最爱丁珰 阅读(17) 评论(0) 推荐(0)
摘要: 以原始LoRA论文为例 目录在本地复现利用云GPU 在本地复现 首先创建虚拟环境。虚拟环境之间,以及虚拟环境与全局环境之间是相互隔离的,所以我们在虚拟环境中安装包并不会影响到其他的环境 打开Anaconda Prompt,输入conda create -n test python=3.12.9创建一 阅读全文
posted @ 2025-04-01 17:42 最爱丁珰 阅读(99) 评论(0) 推荐(0)
摘要: Problem Set 4.1 Problem 4.1.1 首先判断\(A[1]\)和\(A[n]\)是不是峰值,如果是的话就找到了,如果都不是的话就说明数列在开头一段处于单调递增的状态,末尾一段处于单调递减的状态,于是可以知道在\([2,n-1]\)中一定存在峰值。接下来使用二分,设当前在区间\( 阅读全文
posted @ 2025-03-30 10:26 最爱丁珰 阅读(30) 评论(0) 推荐(0)
摘要: 目录定义常见的UML图用例图类图泛化实现关联聚合组合依赖对象图状态图活动图序列图-时序图协作图构件图部署图 定义 UML(Unified Modeling Language)统一建模语言,又称标准建模语言。是用来对软件密集系统进行可视化建模的一种语言。UML的定义包括UML语义和UML表示法两个元素 阅读全文
posted @ 2025-03-29 23:17 最爱丁珰 阅读(111) 评论(0) 推荐(0)
摘要: 在 PyTorch 中,scheduler.get_last_lr() 返回的是一个列表(list),其中包含优化器中每个参数组(parameter group)当前的学习率。例如: optimizer = torch.optim.SGD( [ {'params': model.layer1.par 阅读全文
posted @ 2025-03-28 21:32 最爱丁珰 阅读(39) 评论(0) 推荐(0)
摘要: 在 PyTorch 中,trainer.param_groups 是一个列表(list),其中每个元素是一个字典(dict),表示优化器管理的参数组(parameter group)。每个参数组包含一组模型参数及其对应的超参数(如学习率、动量等)。以下是详细解释: 1. trainer.param_ 阅读全文
posted @ 2025-03-28 20:56 最爱丁珰 阅读(50) 评论(0) 推荐(0)
摘要: 这段文字主要讨论 随机梯度下降(SGD)中不同的数据采样方式及其影响,具体涉及以下几点: 1. 核心问题:有替换采样 vs. 无替换采样 有替换采样:每次从数据集中随机抽取一个样本后,将其放回原数据集。这意味着同一样本可能被多次选中。 无替换采样:每次从数据集中抽取一个样本后不再放回,直到所有样本都 阅读全文
posted @ 2025-03-24 14:12 最爱丁珰 阅读(57) 评论(0) 推荐(0)
摘要: \((2)\) a.他的解答的意思没说明白,看c的代码即可 c.代码是正确的,注意\(x_1\)一定小于\(x_2\),然后去分类讨论即可。到时注意,此时区间缩小的速度是\(\frac{3}{4}\) 阅读全文
posted @ 2025-03-24 14:10 最爱丁珰 阅读(16) 评论(0) 推荐(0)
摘要: 好的!我将非常详细地解释灾难性遗忘(Catastrophic Forgetting)的机制、成因以及其在深度学习中的具体表现。以下内容将分为多个层次展开: 1. 灾难性遗忘的定义 灾难性遗忘(Catastrophic Forgetting)是指神经网络在学习新任务时,快速丢失对旧任务的知识的现象。这 阅读全文
posted @ 2025-03-23 16:58 最爱丁珰 阅读(801) 评论(0) 推荐(0)
摘要: \((2)\) 证明一下为什么范数满足三角不等式: \[||x+y||_p=\sqrt[p]{\underset{i=1}{\overset{d}{\sum}}|x_i+y_i|^p}=\sqrt[p]{\underset{i=1}{\overset{d}{\sum}}2^p|\frac{1}{2} 阅读全文
posted @ 2025-03-23 10:39 最爱丁珰 阅读(51) 评论(0) 推荐(0)
上一页 1 ··· 19 20 21 22 23 24 25 26 27 ··· 132 下一页