随笔分类 -  NLP

摘要:TrainingArguments( _n_gpu=1,########################################GPU adafactor=False, adam_beta1=0.9, adam_beta2=0.999, adam_epsilon=1e-08, auto_fi 阅读全文
posted @ 2022-12-09 11:47 Tsukinousag1 阅读(118) 评论(0) 推荐(0)
摘要:1. 代码链接 from torchtext.legacy import data from torchtext import datasets import torch import torch.nn as nn from transformers import BertTokenizer,Ber 阅读全文
posted @ 2022-01-29 19:20 Tsukinousag1 阅读(88) 评论(0) 推荐(0)
摘要:1. 什么是BERT? 丢一段句子进去,然后BERT处理一个一个token到一个一个embedding “词”跟“字”的差别,就如“潮水”和“潮”,“水”的差别,因此中文bert更多的用的是字,而不是词,因为中文的词无法穷举 结构是多个transformer encoder部分的堆叠 因为这里的in 阅读全文
posted @ 2022-01-28 11:40 Tsukinousag1 阅读(226) 评论(0) 推荐(0)