人工智能入门

确定性计算,符号主义(早期人工智能)

 

不确定性计算:建模、机器学习(世界的随机性、不确定性和动态性 - 需要模式识别(学习)的能力,从数据中总结规律

 

智能即学习。人类的学习,是有类比思维的,得出方法论、哲学;机器的学习,只是在训练特征参数,没有灵性。

 

 

机器学习常见的问题

 

机器学习的经典模型,决策树

 

信息熵,表示信息量的大小。越不确定的信息,信息熵越大,信息的“纯度”越低。

信息增益,经过某个分支后,信息熵的减小量。某个分支的信息增益越大,则该分支对样本集划分所获得的“纯度”越大,信息不确定性减少的程度越大。

 

 

仿生派:如果我们想要学飞翔,就得向“飞鸟”来学习。

 

神经网络:模拟人脑神经元的连接来达到学习功能,通过逐层抽象将输入数据逐层映射为概念等高等语义

 

 

 

 

神经网络 & 深度学习。模拟神经元信号传递,分层构建模型、分层训练学习。

 

神经元的功能:

 

 

激活函数:决定激活下游的哪些神经元的函数???

在神经网络中,激活函数的作用可以类比成“开关”或“过滤器”,帮助网络决定是否应该“激活”某个神经元,以便更好地提取和处理数据的特征。

举个通俗的例子,想象一个“灯泡神经元”:假设你在一个暗房间里,有一排灯泡,每个灯泡都有一个开关。你希望灯泡亮起来的情况是它们受到适合的电压刺激。这种电压输入就像是神经元接收到的输入信号。而激活函数就好比开关的“敏感度设置”,决定电压必须达到什么程度灯泡才会亮。如果电压(即输入信号)达不到设定的激活值,灯泡就不会亮;而一旦超过这个值,灯泡才会亮起来。这样,通过“亮”或“不亮”的状态,灯泡为整个系统传递了有用的信息。

在实际的神经网络中,激活函数会引入非线性,就像设置开关的阈值,帮助神经网络处理复杂的非线性问题。例如,最常见的激活函数之一 ReLU(Rectified Linear Unit)就类似于一个“直通开关”:它会让输入大于0的信号通过,小于0的则过滤掉。这种处理方式让网络在处理图像、语音等复杂任务时更高效和准确。

 

反向传播:求解出神经网络模型中权重层对代价函数的偏导数,然后我们就可以使用梯度下降法来更新模型权重

 

 

几种经典神经网络:

 

卷积神经网络(CNN),对空间拓扑相关的数据建模。一般应用是图片识别、智能驾驶等

 

 

 

 

 

循环神经网络(RNN),对顺序敏感的序列数据进行建模。一般应用是预测计算、自然语言处理等

 

 

 

 

 

 

posted @ 2024-11-08 10:51  默宁  阅读(22)  评论(0)    收藏  举报