摘要: 这里通过1个例子来看下微调的BERT与DeepSeek-R1:1.5b两种模型在阅读理解上的差异。 相关代码如下: def predict(doc, query): item = tokenizer.encode_plus(doc, query, max_length=512, padding="m 阅读全文
posted @ 2025-03-25 18:16 月薪几千的牛马 阅读(27) 评论(0) 推荐(0)