随笔分类 - NLP
摘要:TrainingArguments( _n_gpu=1,########################################GPU adafactor=False, adam_beta1=0.9, adam_beta2=0.999, adam_epsilon=1e-08, auto_fi
阅读全文
摘要:1. 代码链接 from torchtext.legacy import data from torchtext import datasets import torch import torch.nn as nn from transformers import BertTokenizer,Ber
阅读全文
摘要:1. 什么是BERT? 丢一段句子进去,然后BERT处理一个一个token到一个一个embedding “词”跟“字”的差别,就如“潮水”和“潮”,“水”的差别,因此中文bert更多的用的是字,而不是词,因为中文的词无法穷举 结构是多个transformer encoder部分的堆叠 因为这里的in
阅读全文