摘要:2020.9 - 2010.10 篇章关系分析研究综述 The Penn Discourse TreeBank 2.0 PDTB3-Annotation-Manual BERT: Pre-training of Deep Bidirectional Transformers for Language 阅读全文
posted @ 2020-10-03 16:54 douzujun 阅读(31) 评论(0) 推荐(1) 编辑
摘要:B站账号:皮一下很开心的豆子 https://space.bilibili.com/152063970 阅读全文
posted @ 2020-04-14 19:42 douzujun 阅读(163) 评论(0) 推荐(0) 编辑
摘要:1. 导包和设定超参数 阅读全文
posted @ 2020-10-21 19:15 douzujun 阅读(4) 评论(0) 推荐(0) 编辑
摘要:机器学习 1. GBDT:梯度提升决策树 的原理和应用 原理小结1 原理和应用 面试题 统计学习方法 深度学习 1. 深度学习中是不是层数越多越好? Transformer相关 1. 为什么 Transformer 需要 positional encoding? 如何理解 Transformer 中 阅读全文
posted @ 2020-10-19 15:31 douzujun 阅读(16) 评论(0) 推荐(0) 编辑
摘要:学习笔记1 学习笔记2 RoBERTa: A Robustly Optimized BERT Pretraining Approach(一种鲁棒优化的 BERT预训练方法) 细读,半天 Motivation 目前自训练方法例如Elmo,GPT,Bert,XLNet在NLP领域取得了很不错的成绩,但是 阅读全文
posted @ 2020-10-18 22:53 douzujun 阅读(9) 评论(0) 推荐(0) 编辑
摘要:Shallow Convolutional Neural Network for Implicit Discourse Relation Recognition 略读,科普,1h Motivation 浅层卷积神经网络进行隐式篇章关系识别,浅层结构减轻了过拟合问题,而卷积和非线性操作有助于保持我们的 阅读全文
posted @ 2020-10-18 17:28 douzujun 阅读(6) 评论(0) 推荐(0) 编辑
摘要:Towards Cross-Domain PDTB-Style Discourse Parsing(2014) 走向跨域的PDTB式篇章分析,1h,速读 Motivation Discourse Relation Parsing是为了理解句子边界以外的文本。 文献表明,篇章连接词检测 和 篇章关系s 阅读全文
posted @ 2020-10-18 16:31 douzujun 阅读(5) 评论(0) 推荐(0) 编辑
摘要:PDTB-style Discourse Annotation of Chinese Text(2012) 1h,科普 Activation 描述了一个汉语语篇标注方案,采用了词汇基础法(受PDTB启发); 同时,它根据中文文本的语言和统计特征进行改编。 提供了一个更广阔的视角,来研究 广义词汇基础 阅读全文
posted @ 2020-10-17 22:48 douzujun 阅读(8) 评论(0) 推荐(0) 编辑
摘要:Motivation 提出了在 XML语言格式下,PDTB2.0的转换和统一。转换后语料 允许在 XQuery标准上 同时 搜索语法指定的 篇章信息。 解决问题 Conversion into XML PTB XML:XMLization of syntactic structures PDTB X 阅读全文
posted @ 2020-10-17 22:22 douzujun 阅读(7) 评论(0) 推荐(0) 编辑
只有博主才能阅读该文。 阅读全文
posted @ 2020-10-17 16:28 douzujun 阅读(0) 评论(0) 推荐(0) 编辑
只有博主才能阅读该文。 阅读全文
posted @ 2020-10-16 10:45 douzujun 阅读(0) 评论(0) 推荐(0) 编辑
摘要:A PDTB-Styled End-to-End Discourse Parser(2010年) 科普,快速浏览,1h 1 Abstract 开发了一个full discourse parser in PDTB style。 这个训练的解析器:首先识别所有的篇章和非篇章关系,定位 并 标记 他们的论 阅读全文
posted @ 2020-10-16 10:34 douzujun 阅读(7) 评论(0) 推荐(0) 编辑
摘要:2020.9 - 2020.10 94. 二叉树的中序遍历 226. 翻转二叉树 47. 全排列 II 142. 环形链表II 209. 长度最小的子数组 2020.10 - 2020.11 5. 最长回文子串 213. 打家劫舍 II 阅读全文
posted @ 2020-10-16 09:57 douzujun 阅读(8) 评论(0) 推荐(0) 编辑
摘要:题解 python版本 # # @lc app=leetcode.cn id=213 lang=python3 # # [213] 打家劫舍 II # # @lc code=start class Solution: def rob(self, nums: List[int]) -> int: de 阅读全文
posted @ 2020-10-15 16:21 douzujun 阅读(6) 评论(0) 推荐(0) 编辑
摘要:动态规划 /* * @lc app=leetcode.cn id=5 lang=cpp * * [5] 最长回文子串 */ #include <iostream> #include <string> #include <cstdlib> #include <cstdio> using namespa 阅读全文
posted @ 2020-10-14 22:25 douzujun 阅读(8) 评论(0) 推荐(0) 编辑
摘要:1. 传统模型 1.1 TextCNN Temporal 1.2 RNN 阅读全文
posted @ 2020-10-10 22:23 douzujun 阅读(12) 评论(0) 推荐(0) 编辑
摘要:Automatic sense prediction for implicit discourse relations in text(文本中隐含篇章关系的自动sense预测)(2009) 2009年,科普,快速看 Abstract(摘要) 提出了一系列 自动识别 隐含篇章关系 sense 的实验。 阅读全文
posted @ 2020-10-08 22:36 douzujun 阅读(11) 评论(0) 推荐(0) 编辑
摘要:Easily Identifiable Discourse Relations(易于识别的篇章关系) 2008年,科普,快速看 Abstract(摘要) 提出基于PDTB研究,PDTB是一个人工标注的大型语料库,包含显式或隐式实现的contingency, comparison, temporal, 阅读全文
posted @ 2020-10-06 21:36 douzujun 阅读(16) 评论(0) 推荐(0) 编辑
摘要:2020.9 - 2010.10 篇章关系分析研究综述 The Penn Discourse TreeBank 2.0 PDTB3-Annotation-Manual BERT: Pre-training of Deep Bidirectional Transformers for Language 阅读全文
posted @ 2020-10-03 16:54 douzujun 阅读(31) 评论(0) 推荐(1) 编辑
摘要:conda create -n env_name python=3.6 source activate env_name 在root的环境(装jupyter的那个环境): conda install nb_conda # 重新启动 jupyter notebook 使用jupyter就可以方便的切换 阅读全文
posted @ 2020-09-30 20:08 douzujun 阅读(33) 评论(0) 推荐(0) 编辑
只有博主才能阅读该文。 阅读全文
posted @ 2020-09-28 13:04 douzujun 阅读(0) 评论(0) 推荐(0) 编辑
只有博主才能阅读该文。 阅读全文
posted @ 2020-09-28 10:45 douzujun 阅读(0) 评论(0) 推荐(0) 编辑
摘要:打开那个 xxx.ipynb 文件 安装必要的包 # 安装必要的包 !apt-get install -y -qq software-properties-common python-software-properties module-init-tools !add-apt-repository 阅读全文
posted @ 2020-09-25 16:21 douzujun 阅读(30) 评论(0) 推荐(0) 编辑
摘要:https://fitlog.readthedocs.io/zh/latest/user/quickstart.html 阅读全文
posted @ 2020-09-25 08:59 douzujun 阅读(28) 评论(0) 推荐(0) 编辑
摘要:笔记链接 阅读全文
posted @ 2020-09-23 21:05 douzujun 阅读(37) 评论(0) 推荐(0) 编辑
摘要:法一:\(O(n^2)\) /* * @lc app=leetcode.cn id=209 lang=cpp * * [209] 长度最小的子数组 */ // @lc code=start class Solution { public: int minSubArrayLen(int s, vect 阅读全文
posted @ 2020-09-23 17:58 douzujun 阅读(19) 评论(0) 推荐(0) 编辑
摘要:142. 环形链表 II 给定一个链表,返回链表开始入环的第一个节点。 如果链表无环,则返回 null。 为了表示给定链表中的环,我们使用整数 pos 来表示链表尾连接到链表中的位置(索引从 0 开始)。 如果 pos 是 -1,则在该链表中没有环。 说明:不允许修改给定的链表。 示例 1: 输入: 阅读全文
posted @ 2020-09-21 09:39 douzujun 阅读(18) 评论(0) 推荐(0) 编辑
摘要:1. Introduction PDTB是基于一个简单的想法,即,篇章关系是建立在一组可识别的单词或短语(篇章连接词)或仅仅是在两个句子的邻接中。 本手册首先总结了PDTB-3中的新功能以及它与PDTB-2中的不同之处。 需要注意的是,PDTB-3中的每个token都标有其 出处,表明它是PDTB- 阅读全文
posted @ 2020-09-20 22:08 douzujun 阅读(30) 评论(0) 推荐(0) 编辑
摘要:1. 查看模型每层输出详情 from torchsummary import summary summary(your_model, input_size = (channels, H, W)) input_size是根据你自己的网络模型的输入尺寸进行设置。 2. 梯度裁剪 import torch 阅读全文
posted @ 2020-09-20 12:03 douzujun 阅读(18) 评论(0) 推荐(0) 编辑
摘要:感觉不错:Attention详解 阅读全文
posted @ 2020-09-19 16:34 douzujun 阅读(24) 评论(0) 推荐(0) 编辑
摘要:nvidia-smi:是用来查看GPU使用情况的。我常用这个命令判断哪几块GPU空闲,但是最近的GPU使用状态让我很困惑,于是把nvidia-smi命令显示的GPU使用表中各个内容的具体含义解释一下。 !/opt/bin/nvidia-smi 阅读全文
posted @ 2020-09-18 22:19 douzujun 阅读(19) 评论(0) 推荐(0) 编辑
摘要:47. 全排列 II 给定一个可包含重复数字的序列,返回所有不重复的全排列。 示例: 输入: [1,1,2] 输出: [ [1,1,2], [1,2,1], [2,1,1] ] /* * @lc app=leetcode.cn id=47 lang=cpp * * [47] 全排列 II */ // 阅读全文
posted @ 2020-09-18 13:29 douzujun 阅读(18) 评论(0) 推荐(0) 编辑