04 2022 档案
conda安装镜像源
摘要:安装:https://blog.csdn.net/qq_33934427/article/details/107897401 CondaHTTPError: HTTP 000 CONNECTION FAILED for url <https://mirrors.tuna.tsinghua.edu.c 阅读全文
posted @ 2022-04-22 11:41 啥123 阅读(168) 评论(0) 推荐(0)
nlp对抗训练
摘要:对抗训练参考博客:https://wmathor.com/index.php/archives/1537/ 虚拟对抗训练:https://zhuanlan.zhihu.com/p/96106267 阅读全文
posted @ 2022-04-21 20:45 啥123 阅读(43) 评论(0) 推荐(0)
Gradient Harmonizing Mechanism(梯度协调机制)
摘要:1问题描述 下面这个式子是交叉熵损失函数,p代表预测值,p*代表标签的真实值。 如果p=sigmoid(x),损失函数L对x求导可以得到下面的这个式子: 我们定义了g这一变量,它的含义是梯度范数 g的值代表了样本预测的难易程度,g的值越大,代表预测越困难。预测值p与真实值p*越接近,g的值越小,下面 阅读全文
posted @ 2022-04-21 10:51 啥123 阅读(416) 评论(0) 推荐(0)
Relational Graph Attention Network for Aspect-based Sentiment Analysis论文翻译
摘要:摘要 基于方面的情绪分析旨在确定在线评论中针对特定方面的情绪极性。最近的研究采用了基于注意的神经网络模型来隐式地将方面与意见词联系起来。然而,由于语言的复杂性和一个句子中多个方面的存在,这些模型经常混淆连接。在本文中,我们通过有效的语法信息编码来解决这个问题。首先,我们定义了一个统一的面向方面的依赖 阅读全文
posted @ 2022-04-14 19:36 啥123 阅读(461) 评论(0) 推荐(0)
nn.Embedding()函数理解
摘要:torch.nn.Embedding(num_embeddings, embedding_dim, padding_idx=None, max_norm=None, norm_type=2.0, scale_grad_by_freq=False, sparse=False, _weight=None 阅读全文
posted @ 2022-04-05 22:31 啥123 阅读(930) 评论(0) 推荐(0)
RGAT-ABSA数据处理过程
摘要:1 编码方式 如果训练数据采用的编码方式是Bert,则通过BertTokenizer.from_pretrained(args.bert_model_dir)来加载预训练模型和训练的参数。 2 加载数据集 加载train_dataset训练数据,test_dataset测试数据,word_vocab 阅读全文
posted @ 2022-04-05 09:24 啥123 阅读(362) 评论(0) 推荐(0)
Bert获取词向量的过程
摘要:参考博客:https://blog.csdn.net/u011984148/article/details/99921480 1.把我们要获取词向量的句子进行分词处理,再根据模型中的vocab.txt获取每个词的对应的索引。 token初始化 tokenized_text = tokenizer.t 阅读全文
posted @ 2022-04-01 11:40 啥123 阅读(3088) 评论(0) 推荐(0)