摘要: 1########################################################################################################### 用&分隔列,用//分隔行 \begin{equation*} \mathbf F= 阅读全文
posted @ 2023-02-04 20:03 silvan_happy 阅读(103) 评论(0) 推荐(0) 编辑
摘要: 1 大花括号:\left\{ 和\right. 2 对齐 \begin{aligned} &和\\配套,&是需要对齐的位置,\\是换行 \end{aligned} 对齐内容需要包在\begin{aligned}和\end{aligned}里面 k_t^l=\left\{ \begin{aligned 阅读全文
posted @ 2023-01-29 19:10 silvan_happy 阅读(1050) 评论(0) 推荐(0) 编辑
摘要: 利用实体信息增强预训练语言模型在中文NER(命名实体识别)上的表现 作者:Chen Jia,Yue Zhang 西湖大学 论文地址:https://aclanthology.org/2020.emnlp-main.518.pdf 论文代码:https://github.com/jiachenwest 阅读全文
posted @ 2023-01-29 18:58 silvan_happy 阅读(303) 评论(0) 推荐(0) 编辑
摘要: 基于深度学习的互联网和电信欺诈防范分析 BIO标注法和BIOES标注法 NLP中的序列标注方式常用的有两种:BIO标注法和BIOES标注法。 BIO标注法: B-begin,代表实体的开头 I-inside,代表实体的中间或结尾 O-outside,代表不属于实体 BIOES标注法: B-begin 阅读全文
posted @ 2023-01-25 10:27 silvan_happy 阅读(103) 评论(0) 推荐(0) 编辑
摘要: Diffusion-LM improves controllable text generation 扩散语言模型改善可控文本生成(翻译) 论文作者:Xiang Lisa Li …… Stanford University 论文链接:https://arxiv.org/abs/2205.14217 阅读全文
posted @ 2023-01-20 22:35 silvan_happy 阅读(611) 评论(0) 推荐(0) 编辑
摘要: 论文翻译 作者:Wei Liu ,Wenming Xiao DAMO Academy, Alibaba Group 2021ACL 论文地址:https://aclanthology.org/2021.acl-long.454.pdf Abstract 由于各自的优势,词典信息和预训练模型(如BER 阅读全文
posted @ 2023-01-14 16:37 silvan_happy 阅读(456) 评论(0) 推荐(0) 编辑
摘要: Denoising Diffusion Probabilistic Models 去噪扩散概率模型 只是笔记没有原创性内容 来自博客:https://zaixiang.notion.site/Diffusion-Models-for-Deep-Generative-Learning-24ccc2e2 阅读全文
posted @ 2023-01-08 12:58 silvan_happy 阅读(824) 评论(0) 推荐(0) 编辑
摘要: 数据地址:https://download.pytorch.org/tutorial/data.zip 1 """ 2 @File :HomeWork6_RNN_names.py 3 @Author : silvan 4 @Time : 2022/11/28 10:56 5 本文对应官网地址:htt 阅读全文
posted @ 2022-11-28 11:36 silvan_happy 阅读(71) 评论(0) 推荐(0) 编辑
摘要: 1)Multi-Modal Sarcasm Detection via Cross-Modal Graph Convolutional Network 基于跨模态图卷积网络的多模态讽刺识别 论文作者:梁斌 徐睿峰 哈尔滨工业大学 2022ACL 论文地址:https://aclanthology.o 阅读全文
posted @ 2022-11-25 17:00 silvan_happy 阅读(359) 评论(0) 推荐(0) 编辑
摘要: 实验结果: Epoch index: 14, 15 epoches in total. Batch index: 400, the batch size is 64. Discriminator loss is: 0.9480361938476562, generator loss is: 1.13 阅读全文
posted @ 2022-11-22 19:37 silvan_happy 阅读(524) 评论(0) 推荐(0) 编辑