bert 训练1万起,但是样本只有1000+ 使用bert+ P-tuning小样本算法, 进行多标签分类
P-tuning 是一种针对预训练语言模型(如BERT、GPT)的参数高效微调方法,专门用于小样本学习(Few-shot Learning)场景。它通过引入可学习的连续提示(Continuous Prompts),替代传统离散的文本提示(如人工设计的模板),从而在少量标注数据下显著提升模型性能。