摘要: BERT,全称Bidirectional Encoder Representation of Transformer,首次提出于《BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding》一文中。简单来说,BERT是使用了Transformer的encoder(即编码器)部分,因此也可以认为BERT就是Transformer的encoder部分。 阅读全文
posted @ 2024-06-15 11:48 彼得虫 阅读(6523) 评论(0) 推荐(4)
摘要: BLIP,全称是Bootstrapped Language-Image Pretraining,源自《BLIP: Bootstrapping Language-Image Pre-training for Unifified Vision-Language Understanding and Generation》这篇文章,是来自Salesforce Research的一个多模态模型。 阅读全文
posted @ 2025-05-06 21:56 彼得虫 阅读(1016) 评论(0) 推荐(0)