随笔分类 - 组会所学和背后所查
摘要:CLIP(Contrastive Language-Image Pre-Training) 从名字显而易见:语言-图像,预训练,主要用于学习图像 该模型的核心思想是使用大量图像和文本的配对数据进行预训练,以学习图像和文本之间的对齐关系 CLIP模型有两个模态,一个是文本模态,一个是视觉模态,包括两个
阅读全文
摘要:BERT(Bidirectional Encoder Representation from Transformers) 机器阅读理解领域 从名字很好理解,主要使用的方法是Transformer的方法。。进行机器翻译等操作 省流:BERT用于文本识别,机器阅读理解。。跟GPT类似 (1)词嵌入Emb
阅读全文

浙公网安备 33010602011771号