会员
众包
新闻
博问
闪存
赞助商
HarmonyOS
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
绵满の博客
博客园
首页
新随笔
联系
订阅
管理
上一页
1
2
3
4
下一页
2025年3月11日
"GAMMA: Revisiting Template-based Automated Program Repair via Mask Prediction" 论文笔记
摘要: 介绍 (1) 发表 2023-09 ASE'23 (2) 背景 基于模版的 APR 采用了由人类专家手工制作的维修模式将错误代码片段转变为正确代码片段,被认为是最先进的,大量研究专门用于模版提取方案。然而以前的工作显示出相当数量的错误无法修复,因为相关的错误代码在本地文件中不可用 基于深度学习的技术
阅读全文
posted @ 2025-03-11 00:05 绵满
阅读(285)
评论(0)
推荐(0)
2025年3月10日
"Out of Sight, Out of Mind: Better Automatic Vulnerability Repair by Broadening Input Ranges and Sources" 论文笔记
摘要: 介绍 (1) 发表 2024-04 ICSE'24 (2) 挑战 输入长度的限制:现有方法基本都是基于 Transformer 结构,不可避免的限制了输入代码的长度,然后现实世界中的 buggy 代码往往会超过其 token 限制 代码结构的忽略:自然语言具有松散结构的性质,使单词能够以不同的顺序排
阅读全文
posted @ 2025-03-10 23:45 绵满
阅读(301)
评论(0)
推荐(0)
"How Far Can We Go with Practical Function-Level Program Repair?" 论文笔记
摘要: 介绍 (1) 发表 2024-04 目前仍是预印本 (2) 背景 现有的很多基于 LLM 的 APR 方法针对的是 single-line 或者代 hunk-level 的程序修复,但它们通常依靠语句级别的故障定位技术。然而,人们普遍认为,准确识别陈述级的断层基本上可能是代价高昂的,即要求细粒度的输
阅读全文
posted @ 2025-03-10 00:53 绵满
阅读(291)
评论(0)
推荐(0)
2025年3月8日
预训练笔记 (CS224N-8)
摘要: 子词模型 前置知识 (1)词法知识介绍 语音学是音流无争议的物理学 语音体系假定了一组或多组独特的、分类的单元(音素) 传统上,词素是最小的语义单位(例如\(ate,ly,able\)这种),但如今我们需要讨论比单词粒度更细的模型以处理大量的开放词汇(巨大的、无限的单词空间) 例如:oooooooo
阅读全文
posted @ 2025-03-08 22:48 绵满
阅读(264)
评论(0)
推荐(0)
Transformer 笔记 (CS224N-7)
摘要: 模型回顾 问题:RNN需要经过k步才能对远距离的单词进行交互,例如 这里的was是chef的谓语,二者的关系十分紧密,但是使用线性顺序分析句子会导致如果was和chef的距离较远,它们会难以交互(因为梯度问题) Self Attention 键值对注意力 (1)我们可以将注意力视为在键值存储中执行模
阅读全文
posted @ 2025-03-08 22:45 绵满
阅读(304)
评论(0)
推荐(0)
解码和 Attention 机制笔记 (CS224N-6)
摘要: 语言模型的解码 △:在讲义中这部分内容是神经机器翻译NMT中,我认为这个适用于所有语言模型所以就单列出来了 (1)贪心解码:每一步都取最可能的单词,用前一步的输出作为下一步的输入(存在问题:有一个预测偏差,会导致后面的生成不可挽回,最终结果不尽人意) (2)穷举解码:顾名思义,尝试计算每一个可能的序
阅读全文
posted @ 2025-03-08 22:43 绵满
阅读(273)
评论(0)
推荐(0)
LSTM 和机器翻译 (CS224N-5)
摘要: LSTM (1)LSTM(Long Short-Term Memory RNNs)是Hochreiter和Schmidhuber在1997年提出的一种RNN,用于解决消失梯度问题 (2)在步骤t中,这里有一个隐藏单元\(h^{(t)}\)和一个记忆单元\(c^{(t)}\) 它们均为长度为n的向量
阅读全文
posted @ 2025-03-08 22:42 绵满
阅读(293)
评论(0)
推荐(0)
语言模型和 RNN 笔记 (CS224N-4)
摘要: 语言模型定义 (1)语言模型任务是根据给定的单词序列计算下一个单词的概率分布,完成这样的任务的系统就被称作语言模型 (2)也可以认为语言模型是一个为文本分配概率的系统,例如文本 \(x^{(1)},\cdots,x^{(T)}\) 的概率是 n-gram语言模型 (1)一个n-gram是由n个连续单
阅读全文
posted @ 2025-03-08 22:38 绵满
阅读(282)
评论(0)
推荐(0)
依存结构与依存分析笔记 (CS224N-3)
摘要: 依存结构 与编译器中的解析树类似,NLP中的解析树是用于分析句子的句法结构。使用的结构主要有两种类型——短语结构和依存结构。短语结构文法使用短语结构语法将词组织成嵌套成分。后面的内容会展开对它做更详细的说明。我们现在关注依存语法。 句子的依存结构展示了单词依赖于另外一个单词 (修饰或者是参数)。词与
阅读全文
posted @ 2025-03-08 22:36 绵满
阅读(355)
评论(0)
推荐(0)
词向量和 NER 笔记 (CS224N-2)
摘要: 词向量评估 词向量内部评估 (1)词向量的内部评估是对一组由如Word2Vec或GloVe生成的词向量在特定的中间子任务 (如词类比) 上的评估。这些子任务通常简单而且计算速度快,从而能够帮助我们理解生成的的词向量。 (2)词类比 一个比较常用的内部评估的方法是词向量的类比。在词向量类比中,给定以下
阅读全文
posted @ 2025-03-08 22:35 绵满
阅读(293)
评论(0)
推荐(0)
词向量笔记 (CS224N-1)
摘要: 传统方式 先探讨一个问题,我们怎么获取一个词语有用的含义? 以前常用的NLP解决方法,使用WordNet,这是一个包含同义词和上位词列表的同义词库 传统NLP中,我们用独热向量作为特征,这导致需要的特征向量维度过大,且由于独热向量都是正交的,所以词与词之间没有关联。 Word2Vec Word2Ve
阅读全文
posted @ 2025-03-08 22:32 绵满
阅读(377)
评论(0)
推荐(0)
2025年3月7日
算法类型小记
摘要: 链表问题 翻转、回文、相交、倒数第k个:一般都用双指针(快慢指针) 倒序打印、操作:后序遍历即可 数组问题 翻转、回文、相交、n-sum:一般都用双指针 区域和:一般使用前缀和数组 区间增减:一般使用差分数组 矩阵旋转:先按照对角线镜像对称,再对每一行进行翻转 矩阵的螺旋遍历:利用边界移动实现 满足
阅读全文
posted @ 2025-03-07 21:51 绵满
阅读(287)
评论(0)
推荐(0)
欢迎来到绵满的笔记小屋😃!
摘要: 我会不时上传一些自己的笔记,如果有理解错误的地方请在评论区指出,我会及时回复的! 如果我的笔记有帮助到你的话,可以动动小手登录一下,你的点赞评论和关注是我持续更新的动力!(成就感↑↑↑)
阅读全文
posted @ 2025-03-07 21:49 绵满
阅读(273)
评论(0)
推荐(1)
APT 论文速读
摘要: 背景 (1) 定义 APT 攻击(Advanced Persistent Threat,高级持续性威胁) 是利用先进的攻击手段对特定目标进行长期持续性网络攻击的攻击形式。APT 攻击也称为定向威胁攻击,指某组织对特定对象展开的持续有效的攻击活动。这种攻击活动具有极强的隐蔽性和针对性,通常会运用受感染
阅读全文
posted @ 2025-03-07 21:18 绵满
阅读(357)
评论(0)
推荐(1)
"Effective log parsing in log streams using fixed depth forest" 论文笔记
摘要: 挑战 主要讲的是 Drain 的一些问题: ① 对于变量开头的日志会存在解析错误 ② 常量在变量之前发生变化的日志也会导致解析错误 框架 预处理 对于源日志,采用随机修改 token 的下标(即顺序)分成几个子日志,相当于数据增强 候选模版生成 这里采用的就是 Drain 的解析过程,为子日志生成候
阅读全文
posted @ 2025-03-07 18:37 绵满
阅读(244)
评论(0)
推荐(0)
上一页
1
2
3
4
下一页
公告