上一页 1 ··· 5 6 7 8 9 10 11 12 13 ··· 24 下一页
摘要: 从 0 到 1 搭建深度学习模型做 NLP 任务,优势主要体现在对场景的极致适配与深度可控性上,具体如下: 场景定制化:能针对极小众场景(如古文言文语义分析、某行业加密话术理解 ),完全按需求设计模型结构、数据处理逻辑,让模型精准贴合任务。 原理深度把控:从底层构建模型,能吃透深度学习在 NLP 里 阅读全文
posted @ 2025-06-22 14:54 m516606428 阅读(19) 评论(0) 推荐(0)
摘要: 这是在讲 BERT 文本表征的核心特点,用大白话拆解: 1. “文本表征” 是啥? 就是把文字(比如 “我喜欢吃苹果” ),变成电脑能懂的 “数字形式”(矩阵或向量 ),方便模型分析语义~ 2. BERT 和 word2vec 都能 “转数字”,但有区别: word2vec(静态):不管啥语境,一个 阅读全文
posted @ 2025-06-22 14:52 m516606428 阅读(32) 评论(0) 推荐(0)
摘要: BERT 微调时降低学习率主要有以下原因: 保护预训练成果:BERT 在大规模语料上进行预训练,学习到了丰富的语言知识和通用特征。微调阶段使用较小的学习率,可以避免对预训练模型的参数进行过大的更新,防止破坏已经学习到的通用语义和句法等信息,使模型在适应新任务的同时,最大程度地保留预训练模型的 “记忆 阅读全文
posted @ 2025-06-22 14:26 m516606428 阅读(43) 评论(0) 推荐(0)
摘要: 预训练的 BERT 模型在微调时,底层词向量的张量值通常会变化,但具体是否变化取决于微调策略。以下是详细解析: 一、BERT 词向量的本质:可学习的嵌入表示 BERT 的词向量(Token Embeddings)是预训练阶段通过海量文本学习到的稠密向量表示,每个词对应一个固定维度的张量(如 BERT 阅读全文
posted @ 2025-06-22 14:24 m516606428 阅读(34) 评论(0) 推荐(0)
摘要: BERT 的 Pre-train + Fine-tune 流程 凭借预训练阶段学到的通用语言理解能力,可高效适配多种 NLP 任务,按任务类型分类如下: 一、分类任务(判断文本属于哪种类型) 文本情感分析:判断评论、文章的情感倾向(正面 / 负面 / 中性),如电商评论褒贬分类。 主题分类:给文本划 阅读全文
posted @ 2025-06-22 14:22 m516606428 阅读(32) 评论(0) 推荐(0)
摘要: 以下从核心差异和流程对比角度,清晰拆解传统方法与 BERT 预训练方式的区别: 一、核心逻辑差异(大白话版) 传统方法:做 NLP 任务(比如文本分类、情感分析 )时,从 0 开始训模型。流程是:设计模型结构→找少量标注数据(比如标好 “正面 / 负面” 的评论 )→用标注数据从头训模型,让模型学 阅读全文
posted @ 2025-06-22 14:21 m516606428 阅读(25) 评论(0) 推荐(0)
摘要: BERT 有不少版本,从基础到变体丰富多样,除中文相关,还有适配不同场景的版本,以下为你介绍: 一、经典基础版本 BERT - Base:12 层 Transformer 、768 维隐藏层、12 个注意力头,参数约 1.17 亿,平衡性能与资源,适配通用 NLP 任务(文本分类、情感分析等 )。 阅读全文
posted @ 2025-06-22 14:12 m516606428 阅读(212) 评论(0) 推荐(0)
摘要: model.bin 常是存储深度学习模型权重参数的二进制文件,和训练好的模型有关,但不完全等价,具体看场景: 1. 核心作用 在 PyTorch、Hugging Face 等框架里,它主要存模型训练后的权重(比如神经网络里各层的参数值 ) ,是模型能干活的 “核心密码” 。 2. 和 “完整训练好的 阅读全文
posted @ 2025-06-22 14:11 m516606428 阅读(92) 评论(0) 推荐(0)
摘要: 这是对比 “传统方法” 与 “预训练方法” 流程的内容,实体信息梳理: 一、核心对比项 传统方法(Fine - tune 流程 ):步骤:设计模型结构→收集 / 标注训练数据→用标注数据训练→真实场景预测特点:依赖人工标注数据,从 0 开始为特定任务训模型 预训练方法(Pre - train + F 阅读全文
posted @ 2025-06-22 14:09 m516606428 阅读(33) 评论(0) 推荐(0)
摘要: 要搞懂 BERT 和 Transformer 的关系,其实可以用 “儿子和爸爸” 的逻辑来大白话解释 ——Transformer 是 “技术爸爸”,BERT 是 “超牛儿子”,而且这个儿子还把爸爸的优点发扬光大了! 1. Transformer:先有它,才有后来的各种神模型 本质:Transform 阅读全文
posted @ 2025-06-22 14:08 m516606428 阅读(115) 评论(0) 推荐(0)
上一页 1 ··· 5 6 7 8 9 10 11 12 13 ··· 24 下一页