Harukaze

 

01 2021 档案

【论文阅读】Connecting the Dots: Document-level Neural Relation Extraction with Edge-oriented Graphs[EMNLP 2019]
摘要:论文地址:https://www.aclweb.org/anthology/D19-1498/ 代码地址:https://github.com/fenchri/edge-oriented-graph Background 这篇paper也是解决document-level relation extr 阅读全文

posted @ 2021-01-30 20:49 Harukaze 阅读(817) 评论(0) 推荐(0)

【力扣】第225场周赛
摘要:1 替换隐藏数字得到的最晚时间 给你一个字符串 time ,格式为 hh:mm(小时:分钟),其中某几位数字被隐藏(用 ? 表示)。 有效的时间为 00:00 到 23:59 之间的所有时间,包括 00:00 和 23:59 。 替换 time 中隐藏的数字,返回你可以得到的最晚有效时间。 来源:力 阅读全文

posted @ 2021-01-29 22:41 Harukaze 阅读(85) 评论(0) 推荐(0)

【论文阅读】Inter-sentence Relation Extraction with Document-level Graph Convolutional Neural Network[ACL2019]
摘要:论文地址:https://arxiv.org/abs/1906.04684 代码地址:未找到 这篇文章我参考的博客内容丰富又全面,我原文略读就够了,大部分理解来自各位博主链接我贴在下方。 Background 文档级关系抽取的难点在于:我们往往需要抽取的entity pair是span across 阅读全文

posted @ 2021-01-29 17:24 Harukaze 阅读(602) 评论(0) 推荐(0)

【代码粗读】Simultaneously Self-Attending to All Mentions for Full-Abstract Biological Relation Extraction
摘要:代码地址:https://github.com/patverga/bran 今天下载这篇论文的代码,着实把我惊住了,工程量庞大,脚本文件太多看花眼,而且代码使用python2 写的,和我python3环境不搭。 先记录下调试过程中的坑。 Setup Environment Variables Fro 阅读全文

posted @ 2021-01-29 11:30 Harukaze 阅读(219) 评论(0) 推荐(0)

【论文阅读】Simultaneously Self-Attending to All Mentions for Full-Abstract Biological Relation Extraction[NAACL]
摘要:原文链接:https://www.aclweb.org/anthology/N18-1080/ 代码链接:https://github.com/patverga/bran 对关系抽取过程中的Mentions同时采用Self-Attending 论文目的:解决常年被忽视的跨句关系抽取问题,重新考虑me 阅读全文

posted @ 2021-01-27 22:21 Harukaze 阅读(725) 评论(2) 推荐(0)

【论文阅读】Distant Supervision for Relation Extraction beyond the Sentence Boundary[ACL2017]
摘要:论文地址:https://www.aclweb.org/anthology/E17-1110.pdf Abstract 第一个提出了针对与句间关系的distant supervision方法 At the core of our approach is a graph representation 阅读全文

posted @ 2021-01-26 22:14 Harukaze 阅读(295) 评论(0) 推荐(0)

【力扣】最长回文字符串
摘要:给你一个字符串 s,找到 s 中最长的回文子串。 来源:力扣(LeetCode)链接:https://leetcode-cn.com/problems/longest-palindromic-substring 示例 1: 输入:s = "babad"输出:"bab"解释:"aba" 同样是符合题意 阅读全文

posted @ 2021-01-26 12:53 Harukaze 阅读(354) 评论(0) 推荐(0)

【论文阅读】Cross-Sentence N-ary Relation Extraction with Graph LSTMs[ACL2017]
摘要:论文链接:https://www.aclweb.org/anthology/Q17-1008.pdf 代码链接(theano):https://github.com/VioletPeng/GraphLSTM_release In this paper, we explore a general re 阅读全文

posted @ 2021-01-25 17:28 Harukaze 阅读(549) 评论(0) 推荐(0)

【代码粗读】Attention-Based Bidirectional Long Short-Term Memory Networks for Relation Classification
摘要:首先是对于下载下来的数据集进行初步处理将原数据集中的'<e1>','</e1>','<e2>','</e2>'标签替换为'ENT_1_START','ENT_2_END','ENT_2_START','ENT_2_END',处理过后生成json格式的文件: 1 def load_data(path) 阅读全文

posted @ 2021-01-24 23:25 Harukaze 阅读(302) 评论(0) 推荐(0)

【力扣】无重复字符的最长字串
摘要:来源:力扣(LeetCode)链接:https://leetcode-cn.com/problems/longest-substring-without-repeating-characters 给定一个字符串,请你找出其中不含有重复字符的 最长子串 的长度。 示例 1: 输入: s = "abca 阅读全文

posted @ 2021-01-23 12:25 Harukaze 阅读(153) 评论(0) 推荐(0)

【力扣】第224场周赛
摘要:1 可以形成最大正方形的矩形数目 来源:力扣(LeetCode)链接:https://leetcode-cn.com/problems/number-of-rectangles-that-can-form-the-largest-square 给你一个数组 rectangles ,其中 rectan 阅读全文

posted @ 2021-01-22 21:43 Harukaze 阅读(125) 评论(0) 推荐(0)

【论文阅读】Attention-based bidirectional long short-term memory networks for relation classification[ACL2016]
摘要:原文链接:https://www.aclweb.org/anthology/P16-2034/ 代码链接(Pytorch):https://github.com/zhijing-jin/pytorch_RelationExtraction_AttentionBiLSTM 作者只使用了预训练词向量以及 阅读全文

posted @ 2021-01-22 17:21 Harukaze 阅读(1229) 评论(0) 推荐(0)

【代码精读】Relation classification via multi-level attention CNNs
摘要:SemEval-2010 Task-8 官方文档:https://docs.google.com/document/d/1QO_CnmvNRnYwNWu1-QCAeR5ToQYkXUqFeAJbdEhsq7w/preview 数据集:https://github.com/CrazilyCode/Se 阅读全文

posted @ 2021-01-20 20:46 Harukaze 阅读(381) 评论(0) 推荐(0)

【论文阅读】Relation classification via multi-level attention CNNs[ACL2016]
摘要:原文链接:https://www.aclweb.org/anthology/P16-1123.pdf 代码实现:https://github.com/dgai91/pytorch-acnn-model 关系抽取中我们会遇到很多表达同一种关系的不同方式。这种具有挑战性的变异性在本质上可以是词汇的lex 阅读全文

posted @ 2021-01-18 20:31 Harukaze 阅读(346) 评论(0) 推荐(0)

【代码精读】Position-aware Attention and Supervised Data Improve Slot Filling
摘要:因为这篇文章采用LSTM+Attention设计了一个简单的关系抽取模型,我们只关注模型部分,其余数据处理与训练测试部分与https://www.cnblogs.com/Harukaze/p/14253446.html这篇文章的代码类似不做过多介绍。 底层LSTM模型以及embedding的设置: 阅读全文

posted @ 2021-01-17 01:03 Harukaze 阅读(298) 评论(0) 推荐(0)

【论文阅读】Position-aware Attention and Supervised Data Improve Slot Filling[EMNLP2017]
摘要:论文地址:https://www.aclweb.org/anthology/D17-1004.pdf 代码地址:https://github.com/yuhaozhang/tacred-relation (原作者) https://github.com/onehaitao/PA-LSTM-relat 阅读全文

posted @ 2021-01-16 00:32 Harukaze 阅读(586) 评论(0) 推荐(0)

【力扣】一处最多的同行或同列石头
摘要:来源:力扣(LeetCode)链接:https://leetcode-cn.com/problems/most-stones-removed-with-same-row-or-column n 块石头放置在二维平面中的一些整数坐标点上。每个坐标点上最多只能有一块石头。 如果一块石头的 同行或者同列 阅读全文

posted @ 2021-01-15 12:25 Harukaze 阅读(179) 评论(0) 推荐(0)

【代码精读】Graph Convolution over Pruned Dependency Trees for Relation Extraction(3)
摘要:https://www.cnblogs.com/Harukaze/p/14266380.html接上篇文章,详细介绍作者的模型部分。 1 trainer = GCNTrainer(opt, emb_matrix=emb_matrix)#初次训练模型 2 3 trainer = GCNTrainer( 阅读全文

posted @ 2021-01-15 00:21 Harukaze 阅读(606) 评论(6) 推荐(0)

消逝的时间
该文被密码保护。

posted @ 2021-01-14 00:23 Harukaze 阅读(0) 评论(0) 推荐(0)

【神经网络】依存树
摘要:主要介绍GCN-Tree模型中依存树的内容。论文中使用的工具来自Standford Parser。 https://www.xfyun.cn/services/semanticDependence 讯飞中文分词平台 http://nlp.stanford.edu:8080/parser/ 这是可以体 阅读全文

posted @ 2021-01-13 22:07 Harukaze 阅读(2817) 评论(0) 推荐(0)

【力扣】冗余连接
摘要:来源:力扣(LeetCode)链接:https://leetcode-cn.com/problems/redundant-connection 在本问题中, 树指的是一个连通且无环的无向图。 输入一个图,该图由一个有着N个节点 (节点值不重复1, 2, ..., N) 的树及一条附加的边构成。附加的 阅读全文

posted @ 2021-01-13 13:51 Harukaze 阅读(149) 评论(0) 推荐(0)

【代码精读】Graph Convolution over Pruned Dependency Trees for Relation Extraction(2)
摘要:Training To train a graph convolutional neural network (GCN) model, run: 1 bash train_gcn.sh 0 2 3 SAVE_ID=$1 4 python train.py --id $SAVE_ID --seed 0 阅读全文

posted @ 2021-01-12 23:34 Harukaze 阅读(285) 评论(0) 推荐(0)

【力扣】第223场周赛
摘要:来源:力扣(LeetCode)链接:https://leetcode-cn.com/problems/decode-xored-array 第一题:解码异或后的数组(3分) 未知 整数数组 arr 由 n 个非负整数组成。 经编码后变为长度为 n - 1 的另一个整数数组 encoded ,其中 e 阅读全文

posted @ 2021-01-11 22:01 Harukaze 阅读(168) 评论(0) 推荐(0)

【代码精读】Graph Convolution over Pruned Dependency Trees for Relation Extraction(1)
摘要:First, download and unzip GloVe vectors from the Stanford NLP group website, with: chmod +x download.sh; ./download.sh 命令chomd+x,使download.sh文件有执行权限 使 阅读全文

posted @ 2021-01-11 15:33 Harukaze 阅读(202) 评论(0) 推荐(0)

【力扣】买股票的最佳时机
摘要:来源:力扣(LeetCode)链接:https://leetcode-cn.com/problems/best-time-to-buy-and-sell-stock-iii 给定一个数组,它的第 i 个元素是一支给定的股票在第 i 天的价格。 设计一个算法来计算你所能获取的最大利润。你最多可以完成  阅读全文

posted @ 2021-01-09 13:45 Harukaze 阅读(156) 评论(0) 推荐(0)

【论文阅读】Graph Convolution over Pruned Dependency Trees Improves Relation Extraction[EMNL2018]
摘要:runed adj 被修剪得 论文链接:https://www.aclweb.org/anthology/D18-1244/ 代码地址:https://github.com/qipeng/gcn-over-pruned-trees Abstract 依存树可以帮助关系抽取模型捕捉单词之间的长距离关系 阅读全文

posted @ 2021-01-08 21:29 Harukaze 阅读(931) 评论(0) 推荐(0)

【力扣】旋转数组
摘要:来源:力扣(LeetCode)链接:https://leetcode-cn.com/problems/rotate-array 给定一个数组,将数组中的元素向右移动 k 个位置,其中 k 是非负数。 示例 1: 输入: [1,2,3,4,5,6,7] 和 k = 3输出: [5,6,7,1,2,3, 阅读全文

posted @ 2021-01-08 11:03 Harukaze 阅读(121) 评论(0) 推荐(0)

【论文阅读】End-to-End Relation Extraction using LSTMs on Sequences and Tree Structures[ACL2016]
摘要:论文地址:https://arxiv.org/pdf/1601.00770.pdf 代码地址(TensorFlow):https://github.com/Sshanu/Relation-Classification-using-Bidirectional-LSTM-Tree 这篇论文应该算是利用神 阅读全文

posted @ 2021-01-07 21:44 Harukaze 阅读(657) 评论(0) 推荐(0)

【力扣】分发糖果
摘要:来源:力扣(LeetCode)链接:https://leetcode-cn.com/problems/candy 老师想给孩子们分发糖果,有 N 个孩子站成了一条直线,老师会根据每个孩子的表现,预先给他们评分。 你需要按照以下要求,帮助老师给这些孩子分发糖果: 每个孩子至少分配到 1 个糖果。评分更 阅读全文

posted @ 2021-01-07 10:58 Harukaze 阅读(173) 评论(0) 推荐(0)

【力扣】判定字符是否唯一
摘要:来源:力扣(LeetCode)链接:https://leetcode-cn.com/problems/is-unique-lcci 实现一个算法,确定一个字符串 s 的所有字符是否全都不同。 示例 1: 输入: s = "leetcode"输出: false 示例 2: 输入: s = "abc"输 阅读全文

posted @ 2021-01-06 22:43 Harukaze 阅读(108) 评论(0) 推荐(0)

【代码精读】Context-Aware Representations for Knowledge Base Relation Extraction
摘要:这篇并不是我阅读的这篇文章的代码,https://www.cnblogs.com/Harukaze/p/14242000.html 而是在文档级关系抽取中使用Context-Aware机制的一个实例,代码如下: 1 class ContextAware(nn.Module): 2 def __ini 阅读全文

posted @ 2021-01-06 19:22 Harukaze 阅读(217) 评论(0) 推荐(0)

【论文阅读】Context-Aware Representations for Knowledge Base Relation Extraction [EMNLP2017]
摘要:上篇文档关系抽取的论文,有ContextAware模型,通过查看代码发现是LSTM+Attention的模型,来阅读原文学习。 原文链接:https://www.aclweb.org/anthology/D17-1188.pdf Abstract 我们证明,对于句子级的关系抽取,在预测目标关系时考虑 阅读全文

posted @ 2021-01-06 16:46 Harukaze 阅读(274) 评论(0) 推荐(0)

【力扣】定长子串中元音最大数目
摘要:来源:力扣(LeetCode)链接:https://leetcode-cn.com/problems/maximum-number-of-vowels-in-a-substring-of-given-length 给你字符串 s 和整数 k 。 请返回字符串 s 中长度为 k 的单个子字符串中可能包 阅读全文

posted @ 2021-01-05 22:51 Harukaze 阅读(155) 评论(0) 推荐(0)

【神经网络】CNN在Pytorch中的使用
摘要:因为研究方向为关系抽取,所以在文本的处理方面,一维卷积方法是很有必要掌握的,简单介绍下加深学习印象。 Pytorch官方参数说明: Conv1d class torch.nn.Conv1d(in_channels, out_channels, kernel_size, stride=1, paddi 阅读全文

posted @ 2021-01-05 12:22 Harukaze 阅读(1398) 评论(0) 推荐(0)

【力扣】等差数列划分II -子序列,目前为止未能深刻理解defaultdict()
摘要:来源:力扣(LeetCode)链接:https://leetcode-cn.com/problems/arithmetic-slices-ii-subsequence 如果一个数列至少有三个元素,并且任意两个相邻元素之差相同,则称该数列为等差数列。 例如,以下数列为等差数列: 1, 3, 5, 7, 阅读全文

posted @ 2021-01-04 23:07 Harukaze 阅读(147) 评论(0) 推荐(0)

【神经网络】LSTM在Pytorch中的使用
摘要:先附上张玉腾大佬的内容,我觉得说的非常明白,原文阅读链接我放在下面,方面大家查看。 LSTM的输入与输出: output保存了最后一层,每个time step的输出h,如果是双向LSTM,每个time step的输出h = [h正向, h逆向] (同一个time step的正向和逆向的h连接起来)。 阅读全文

posted @ 2021-01-03 21:49 Harukaze 阅读(4894) 评论(0) 推荐(0)

【力扣】从中序与后序遍历序列构造二叉树
摘要:来源:力扣(LeetCode)链接:https://leetcode-cn.com/problems/construct-binary-tree-from-inorder-and-postorder-traversal 根据一棵树的中序遍历与后序遍历构造二叉树。 注意:你可以假设树中没有重复的元素。 阅读全文

posted @ 2021-01-02 12:30 Harukaze 阅读(229) 评论(0) 推荐(0)

导航