1 2 3 4 5 ··· 18 下一页
摘要: 一、概述 阅读全文
posted @ 2025-12-17 15:07 ylxn 阅读(3) 评论(0) 推荐(0)
摘要: 一、 简介 对图片(数据集链接) 进行分类,构建 CNN 网络。(还可以直接使用 Restnet)。CNN 架构: 二、代码: 模型: import torch import torch.nn as nn import torch.nn.functional as F class ModelCNNV 阅读全文
posted @ 2025-12-09 14:23 ylxn 阅读(3) 评论(0) 推荐(0)
摘要: 1、拉格朗日乘子法(等式约束) 问题形式:最小化目标函数f(x),满足h(x) = 0。 核心思想:在最优解 x∗ 处,目标函数的梯度 ∇f 必须与约束曲面的法向量平行。因为如果它们不平行,我们就可以沿着约束曲面“滑动”来进一步降低 f的值。 构造拉格朗日函数:L(x,λ)=f(x)+λh(x)。其 阅读全文
posted @ 2025-12-08 18:42 ylxn 阅读(24) 评论(0) 推荐(0)
摘要: 一 简介 与 Dijkstra 不同的是,A*算法是source 到 target 的最短路径,Dijkstra 是source 到所有点的最短路径。A*算法的核心是评估函数 f(n) = g(n) + h(n)。 g(n) 从起点到节点 n 的实际代价 h(n) 从节点 n 到终点的估计代价(启发 阅读全文
posted @ 2025-12-08 17:55 ylxn 阅读(5) 评论(0) 推荐(0)
摘要: 一、作用 求源点到终点的最短路径,k条。无环无负权 根路径:最短路径 偏离路径:计算从偏离节点(即根路径的最后一个节点)到汇点的最短路径,这就是偏离路径。 算法的基本思路是: 首先找到最短路径(使用 Dijkstra 等算法) 然后系统地生成第 2、3、...、k 条最短路径 通过 "偏移路径"(d 阅读全文
posted @ 2025-12-05 15:26 ylxn 阅读(6) 评论(0) 推荐(0)
摘要: 1 概念 state 状态 action 行动 reward function 奖励 policy 策略 discount rate 衡量当前奖励与未来奖励 2、 Q 与 V 动作的价值 Q:代表智能体选择这个动作A后,一直到最终状态奖励总和的期望。告诉你在这个状态下执行某个具体动作有多好。Q,告诉 阅读全文
posted @ 2025-12-04 19:01 ylxn 阅读(15) 评论(0) 推荐(0)
摘要: 1 一些概念 Query, 当前元素 Key,序列中的其他元素 Value,求的加权结果和 2 Attention $$\displaystyle{\displaylines{Attention(Q,K,V)=Softmax(\frac{QK}{\sqrt{d}})V}}$$ relevance i 阅读全文
posted @ 2025-12-02 18:53 ylxn 阅读(6) 评论(0) 推荐(0)
摘要: 一、流程 求函数的导数 更新x,x_new = x - learning_rate * gradient 检查收敛性: |gradient| < tolerance 二、为什么沿着梯度方向就一定能达到最值? 需要用泰勒展开式进行推导。过程省略 import numpy as np import ma 阅读全文
posted @ 2025-12-02 15:14 ylxn 阅读(6) 评论(0) 推荐(0)
摘要: 最近开始学习 pytroch,照着kaggle 简单实现优化了一个 DNN 需要搭建网络、把数据放入dataset,然后定义前向传播 搭建net 手写 l2正则 loss 手写 early_stop import matplotlib.pyplot as plt import torch from 阅读全文
posted @ 2025-11-28 16:47 ylxn 阅读(4) 评论(0) 推荐(0)
摘要: 简介 lstm attention train Model import torch import torch.nn as nn class SentimentRNN(nn.Module): def __init__(self, no_layers, vocab_size, hidden_dim, 阅读全文
posted @ 2025-11-27 11:14 ylxn 阅读(3) 评论(0) 推荐(0)
1 2 3 4 5 ··· 18 下一页