AI基础知识
NLP(自然语言处理)
包含NLU(自然语言理解)、NLG(自然语言生成)
机器学习方法
1、监督学习
将数据打好标签扔进模型训练,再扔数据进来就知道是什么
2、无监督学习
数据不打标签扔进模型训练,让模型自己去分类
3、强化学习
给智能体每一步进行奖惩,使其采取最佳行动获得最高奖励。eg.走迷宫,走对了加分,走错了扣分
4、深度学习
利用多层神经网络进行复杂的数据处理和模式识别。神经网络有三个关键层:输入层(接收数据输入,每一个特征就是一个节点)、隐藏层(对输入数据进行特征的提取和变换)、输出层(给出模型最终的预测结果)
神经网络
浅层神经网络:包含少量隐藏层的一种神经网络,由于层数少计算简单,通常用于简单或较小规模的任务
深度神经网络:包含多个隐藏层,捕捉复杂模式和高级特征,用来处理复杂和规模达的任务。比如图像识别,自动驾驶
卷积神经网络(CNN)
用来处理类似网格结构数据的深度学习模型,例如图像,像素
卷积层:比如看一张图上的东西,每次只看一小部分来获取信息,这个过程就是卷积操作,帮助模型捕捉基本特征
池化层:遮住一部分去看
全连接层:将所有观察的结果放在一起,根据拿到的信息来识别整个图,做出最终的判断
循环神经网络(RNN)
专门用来处理序列数据(如文字、语音或任何连续的时间数据)的神经网络。适合处理需要理解时间序列数据或上下文信息
可以根据过去的数据来预测未来的数据
Transformer
一种深度学习的模型结构,在处理序列数据如文本,翻译或文本生成等语言理解任务时表现出卓越的效果。优势是能同时处理输入序列的所有部分,大大加快了训练过程
四大核心组件:自注意力机制、多头注意力,位置编码,前馈网络
BERT
基于Transformer模型的一种深度学习技术。特点是双向训练,考虑文本每个词的左侧和右侧,在理解文本的复杂语义方面表现出色。可以分析情感正向或者反向
GPT(生成式预训练)
一种先进的自然语言处理模型。生成式意味着可以创造全新的内容
机器学习效果
1、欠拟合
特征或数据太少,导致模型效果不好
2、最佳拟合
特征很好,模型效果很棒
3、过拟合
特征太多了,导致在训练的数据上效果很好,但是新数据上效果很差
向量数据库
在⼈⼯智能(AI)领域,特别是在处理⾃然语⾔或图像等数据时,经常需要将原始数据转换成向量形式。这些向量通常称为特征向量,它们是原始数据的数值表示,可以⽤于各种机器学习模型的训练和预测。为了⾼效管理和检索这些向量,我们会使⽤向量数据库。
浙公网安备 33010602011771号