2022年4月20日
摘要:
手把手微调一个模型 原文链接:https://blog.csdn.net/Ying_M/article/details/117932055 原文链接:https://blog.csdn.net/qq_36825778/article/details/104213056,这个更详细一些 官方代码:ht
阅读全文
posted @ 2022-04-20 11:09
宋岳庭
阅读(626)
推荐(0)
2022年4月19日
摘要:
【杂谈】GitHub上的机器学习/深度学习综述项目合集 - 龙鹏-笔名言有三的文章 - 知乎 https://zhuanlan.zhihu.com/p/60245227 初学者最忌讳的就是天天看最新的东西,那样是有损于学习的。 大综述、读论文、逛社区、听课程、跟项目、翻数据集、看领域 攒工具、聚焦自
阅读全文
posted @ 2022-04-19 20:14
宋岳庭
阅读(52)
推荐(0)
摘要:
原文链接:https://zhuanlan.zhihu.com/p/35890660、https://blog.csdn.net/qq_42250789/article/details/108832004 我不太清楚哪个是原创。 可以做微调的4种情况: 数据集1 - 数据量少,但数据相似度非常高 在
阅读全文
posted @ 2022-04-19 19:59
宋岳庭
阅读(267)
推荐(0)
摘要:
斯坦福 | 微调会扭曲预训练特征,并在分布外表现不佳 https://hub.baai.ac.cn/view/15037
阅读全文
posted @ 2022-04-19 09:11
宋岳庭
阅读(46)
推荐(0)
2022年4月18日
摘要:
https://mp.weixin.qq.com/s/zUU6jGem0iKP4QtwyAQGxw 论文地址:https://arxiv.org/pdf/2202.09061.pdf
阅读全文
posted @ 2022-04-18 17:04
宋岳庭
阅读(162)
推荐(0)
摘要:
https://hub.baai.ac.cn/view/15120 https://mp.weixin.qq.com/s/U1pJ9TaijMVG0wawFulnww 论文标题: Multi-Grained Vision Language Pre-Training: Aligning Texts w
阅读全文
posted @ 2022-04-18 17:03
宋岳庭
阅读(246)
推荐(0)
摘要:
Transformer最新总结:分类和目录大全 ,https://hub.baai.ac.cn/view/15947 Transformer总结-2022版,https://mp.weixin.qq.com/s/iKHs7Nr8qZrwHBuFi_KQ5w 原始英文版:https://xamat.m
阅读全文
posted @ 2022-04-18 15:47
宋岳庭
阅读(54)
推荐(0)
摘要:
来源:https://hub.baai.ac.cn/view/15976 原文:https://ai.facebook.com/blog/advances-in-multimodal-understanding-research-at-meta-ai/ facebook的多模态项目Meta AI 在
阅读全文
posted @ 2022-04-18 15:32
宋岳庭
阅读(272)
推荐(0)
摘要:
预训练大模型的三大挑战 : ▶ 训练难:训练数据量大,算力成本高。 ▶ 微调难:微调参数量大,微调时间长。 ▶ 应用难:推理速度慢,响应时间长,难以满足线上业务需求。 https://mp.weixin.qq.com/s/leUQz3VcyCkfY6Xx2G39mg 官网 https://www.o
阅读全文
posted @ 2022-04-18 15:24
宋岳庭
阅读(226)
推荐(0)
2022年4月11日
摘要:
代码地址https://github.com/salesforce/ALBEF.git 目的使用少量的图片,训练模型。 准备文件(1) /Users/xuehuiping/git/ALBEF/configs/Retrieval_flickr.yaml train_file: ['/Users/xue
阅读全文
posted @ 2022-04-11 08:54
宋岳庭
阅读(1365)
推荐(1)