摘要: GAT入门(Graph Attention Networks) 信息来源:https://zhuanlan.zhihu.com/p/81350196 1.聊点基础 ① 图的两种“特征” 对于任意顶点,其和邻居构成第一种特征,即图的结构关系 每个顶点都有自己的特征,即GCN中提到的图信号,它可以是社交 阅读全文
posted @ 2025-05-25 19:08 mumumu1 阅读(31) 评论(0) 推荐(0)
摘要: 强化学习算法 1.概述 之前入门了强化学习基本术语及MDP,而强化学习相关算法就目前了解,分为在MDP框架下的算法,以及跳出MDP框架下的算法,我们现针对在MDP框架下的算法去学习,先不管跳出MDP框架下的算法。 而在MDP框架下,算法又可以分为两大类:基于模型的(model-based)和无模型的 阅读全文
posted @ 2025-05-18 18:02 mumumu1 阅读(45) 评论(0) 推荐(0)
摘要: GCN入门 GCN入门 信息来源 理论 https://zhuanlan.zhihu.com/p/120311352 数学推导 https://www.bilibili.com/video/BV1Vw411R7Fj/?spm_id_from=333.337.search-card.all.click 1.基本概 阅读全文
posted @ 2025-05-11 19:03 mumumu1 阅读(57) 评论(0) 推荐(0)
摘要: 图神经网络 1.图概述 ①基本概念 如何表示图 - 使用向量,以A Gentle Introduction to Graph Neural Networks为例 使用6个维度的向量表示顶点信息 使用8个维度的向量表示边的信息 使用5个维度的向量表示全局信息,全局信息例如节点数、边数、最长路径等 有向 阅读全文
posted @ 2025-04-27 15:57 mumumu1 阅读(309) 评论(0) 推荐(0)
摘要: MDP & Q-learning 1.基本概念 强化学习讨论的问题:一个智能体(agent)如何在一个复杂的环境(environment)中去极大化它所获得的奖励。通过感知环境的状态(state)对动作(action)的反应(reward),来指导更好的动作,从而获得最大的收益(return)。以上过程称为在交互中学习,这样的学习方 阅读全文
posted @ 2025-04-20 15:14 mumumu1 阅读(86) 评论(0) 推荐(0)
摘要: latex入门 常用latex格式,待补充 阅读全文
posted @ 2025-04-20 15:10 mumumu1 阅读(112) 评论(0) 推荐(0)
摘要: 注意力机制与Transformers 零、预训练 & 词向量 0.1 预训练 预训练 = 生成词向量 + 迁移到下游任务 预训练的过程,就是在 大量文本 上学习每个单词的最佳词向量,让其捕捉语义信息 训练完成后,模型可以将新数据中的单词转换成合理的词向量,以便用于下游任务 Word2Vec得到的是静态词向量,不能区分不同语境下的一词多义 阅读全文
posted @ 2025-04-15 13:16 mumumu1 阅读(98) 评论(0) 推荐(0)
摘要: 数据库相关概念及SQL用法 考研复试自用,主要内容包括:基本概念、关系代数、关系理论(函数依赖&范式相关)、SQL相关、事务并发、安全访问、日志系统等内容 阅读全文
posted @ 2025-04-15 12:21 mumumu1 阅读(58) 评论(0) 推荐(0)