会员
周边
新闻
博问
闪存
众包
赞助商
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
ywh2000
博客园
首页
新随笔
联系
订阅
管理
2023年12月14日
【论文阅读笔记】【多模态-Vision-Language Pretraining】 BLIP: Bootstrapping Language-Image Pre-training for Unified Vision-Language Understanding and Generation
摘要: BLIP ICML 2022 (Spotlight) 读论文思考的问题 论文试图解决什么问题?写作背景是什么? 问题: 在视觉-语言预训练(VLP)中,如何提高充斥着噪声的海量图文对数据的质量,提升预训练效果? 如何设计模型,使得预训练后的模型在理解(understanding-based)任务和生
阅读全文
posted @ 2023-12-14 10:37 PanSTARRS
阅读(292)
评论(0)
推荐(0)
公告