随笔分类 -  组会所学和背后所查

摘要:CLIP(Contrastive Language-Image Pre-Training) 从名字显而易见:语言-图像,预训练,主要用于学习图像 该模型的核心思想是使用大量图像和文本的配对数据进行预训练,以学习图像和文本之间的对齐关系 CLIP模型有两个模态,一个是文本模态,一个是视觉模态,包括两个 阅读全文
posted @ 2024-11-11 12:19 泪水下的笑靥 阅读(118) 评论(0) 推荐(0)
摘要:BERT(Bidirectional Encoder Representation from Transformers) 机器阅读理解领域 从名字很好理解,主要使用的方法是Transformer的方法。。进行机器翻译等操作 省流:BERT用于文本识别,机器阅读理解。。跟GPT类似 (1)词嵌入Emb 阅读全文
posted @ 2024-11-10 20:22 泪水下的笑靥 阅读(83) 评论(0) 推荐(0)