摘要:
4、Transformer基础知识 一、背景 BERT: Pre-training of Deep Bidirectional Transformers forLanguage Understanding》, BERT模型横空出世, 并横扫NLP领域11项任务的最佳成绩! 论文地址: https:/ 阅读全文
4、Transformer基础知识 一、背景 BERT: Pre-training of Deep Bidirectional Transformers forLanguage Understanding》, BERT模型横空出世, 并横扫NLP领域11项任务的最佳成绩! 论文地址: https:/ 阅读全文
posted @ 2025-06-23 09:14
戴莫先生Study平台
阅读(82)
评论(0)
推荐(0)
摘要:
3、神经网络基础 一、计算机视觉 计算机图像是多维的 而文本是二维的具有强相关性 比如:明明请我吃饭 我请明明吃饭 完全意思就不一样。 二、图像分类 给不同的图像给予不同的标签来识别图像。 像素图==>特征图==>特征融合==>输出 9格像素中每个格向量相乘求平均,值越高图像相识度越高 接近1表示匹 阅读全文
3、神经网络基础 一、计算机视觉 计算机图像是多维的 而文本是二维的具有强相关性 比如:明明请我吃饭 我请明明吃饭 完全意思就不一样。 二、图像分类 给不同的图像给予不同的标签来识别图像。 像素图==>特征图==>特征融合==>输出 9格像素中每个格向量相乘求平均,值越高图像相识度越高 接近1表示匹 阅读全文
posted @ 2025-06-23 08:15
戴莫先生Study平台
阅读(44)
评论(0)
推荐(0)
摘要:
NLP基础 1、自然语言处理简介 自然语言处理关注的是自然语言与计算机之间的交互(NLP)。 1.1 自然语言处理简介 自然语言生成恰恰相反,结构化数据中以读取的方式自动生成文本。三个阶段:文本规划(完成结构化数据中的基础内容规划)、语句规划(从结构化数据中组合语句来表达信息流)、实现(产生语法通顺 阅读全文
NLP基础 1、自然语言处理简介 自然语言处理关注的是自然语言与计算机之间的交互(NLP)。 1.1 自然语言处理简介 自然语言生成恰恰相反,结构化数据中以读取的方式自动生成文本。三个阶段:文本规划(完成结构化数据中的基础内容规划)、语句规划(从结构化数据中组合语句来表达信息流)、实现(产生语法通顺 阅读全文
posted @ 2025-06-23 07:16
戴莫先生Study平台
阅读(74)
评论(0)
推荐(0)
摘要:
1、大模型科普 一、大模型发展 GPT-1:2018年首个生成式预训练transformer无监督预训练和有监督微调 GPT-2: 训练数据量参数扩大至15亿,无监督训练、无样本训练 提升生成能力 文本响应 GPT-3:参数扩大1750亿 通过“上下文学习”概念,实现少样学习(单样本事例)任务的高性 阅读全文
1、大模型科普 一、大模型发展 GPT-1:2018年首个生成式预训练transformer无监督预训练和有监督微调 GPT-2: 训练数据量参数扩大至15亿,无监督训练、无样本训练 提升生成能力 文本响应 GPT-3:参数扩大1750亿 通过“上下文学习”概念,实现少样学习(单样本事例)任务的高性 阅读全文
posted @ 2025-06-23 06:00
戴莫先生Study平台
阅读(101)
评论(0)
推荐(0)

浙公网安备 33010602011771号