摘要:
反向传播算法:攻克多层感知机训练难题的关键革命 在神经网络发展的历史长河中,多层感知机(Multilayer Perceptron,MLP)曾因训练难题被束之高阁,而反向传播算法(Backpropagation) 的出现,犹如一把钥匙,打开了多层神经网络实用化的大门。它不仅解决了多层感知机梯度计算的 阅读全文
posted @ 2025-12-07 22:15
wangya216
阅读(46)
评论(0)
推荐(0)
摘要:
卷积神经网络是从多层感知机基础上发展起来的吗? 在深度学习的发展历程中,卷积神经网络(CNN)和多层感知机(MLP)是两大核心架构,二者时常被放在一起比较。一个常见的疑问是:卷积神经网络是否从多层感知机的基础上发展而来? 答案是:CNN并非MLP的直接衍生产物,二者是基于不同设计理念、并行发展的神经 阅读全文
posted @ 2025-12-07 22:04
wangya216
阅读(38)
评论(0)
推荐(0)
摘要:
澄清:梯度下降优化的是模型参数,而非损失函数本身 在深度学习的表述中,“通过梯度下降(如SGD、Adam)优化损失函数”是一个口语化的简化说法,很容易引发误解——它的真实含义并不是修改损失函数的公式或参数,而是通过调整神经网络的可学习参数,来最小化损失函数的取值。下面我们从概念本质、操作流程和易混点 阅读全文
posted @ 2025-12-07 21:55
wangya216
阅读(23)
评论(0)
推荐(0)
摘要:
梯度下降:站在碗壁,如何找到最低点? 想象你站在一个巨大、光滑的陶瓷碗的内壁上。 你被蒙住眼睛,看不见碗底,也看不到碗口——但你知道:真正的目标在碗的最底部。 这,就是深度学习中“梯度下降”的核心画面。 🥣 为什么是“碗”?——损失函数的形状 在训练AI模型时,我们用一个叫 损失函数(Loss F 阅读全文
posted @ 2025-12-07 21:41
wangya216
阅读(12)
评论(0)
推荐(0)
摘要:
梯度:明明是个“方向”,为啥偏叫“度”? 提到“梯度”,很多人第一次见这个词都会犯嘀咕: 它明明是深度学习里给模型指路的“方向标”,告诉模型该往哪走才能让预测更准,怎么看都是个方向概念,为啥名字里带个“度”字? 这事儿得从数学老祖宗的“起名艺术”和它的真实本领说起。 先给结论:梯度的“度”,不是“角 阅读全文
posted @ 2025-12-07 21:36
wangya216
阅读(32)
评论(0)
推荐(0)
摘要:
不同深度学习框架中实现人工神经元基本计算单元的模块对比 在人工神经网络中,最核心的计算单元遵循统一的数学形式: \[\mathbf{y} = f(\mathbf{W}\mathbf{x} + \mathbf{b}) \]其中: \(\mathbf{x}\) 是输入向量, \(\mathbf{W}\) 阅读全文
posted @ 2025-12-07 21:04
wangya216
阅读(9)
评论(0)
推荐(0)
摘要:
一文读懂激活函数 激活函数是让神经网络从“只能拟合直线”变成“能拟合复杂曲线”的关键。没有激活函数,再深的神经网络也只是个“线性回归的堆叠”;有了激活函数,神经网络才能识别图像、翻译语言、预测复杂规律。 今天我们就用通俗的语言,讲透激活函数的核心逻辑:它是什么、为什么需要它、常用激活函数有哪些,以及 阅读全文
posted @ 2025-12-07 20:46
wangya216
阅读(56)
评论(0)
推荐(1)
摘要:
一文读懂MindSpore的construct方法:神经网络的“自动流水线” 在MindSpore里写神经网络时,总有个绕不开的construct方法——它既不用我们手动调用,却能让模型自动完成从输入到输出的计算。很多新手会疑惑:这方法到底是干啥的?啥时候会跑起来?为啥不能直接写个forward函数 阅读全文
posted @ 2025-12-07 20:26
wangya216
阅读(12)
评论(0)
推荐(0)
摘要:
实操教程:MindSpore中确定神经网络隐藏层与输出层神经元数量 在神经网络建模中,隐藏层/输出层神经元数量的配置直接决定模型性能。不合理的设置会导致欠拟合、过拟合或训练收敛困难。本文基于MindSpore框架,通过理论+完整代码实操,系统讲解输出层与隐藏层神经元数量的确定逻辑,涵盖鸢尾花3分类、 阅读全文
posted @ 2025-12-07 20:25
wangya216
阅读(10)
评论(0)
推荐(0)
摘要:
scikit-learn 能否做深度学习?——兼谈不同神经元数量的模型对比实验实现 在机器学习工具选型中,很多人会有一个疑问:scikit-learn(简称sklearn)只支持传统机器学习,不包含深度学习功能吗? 答案是:不完全准确。sklearn 的核心定位是传统机器学习(如决策树、SVM、逻辑 阅读全文
posted @ 2025-12-07 20:15
wangya216
阅读(16)
评论(0)
推荐(0)
摘要:
“人工神经元只能有一个输入?”—— 澄清输入层、隐藏层与输出层的关键差异 在学习人工神经网络时,很多人会被三个核心问题绕晕:一是“人工神经元是不是只能有一个输入?”,尤其看到“输入层节点数量等于特征数”时容易误解;二是“隐藏层、输出层神经元的参数是不是都一样?”;三是“‘加权求和+偏置+输出’的整体 阅读全文
posted @ 2025-12-07 20:08
wangya216
阅读(27)
评论(0)
推荐(0)
摘要:
从人脑神经元到MindSpore深度神经网络:感知机、多层感知器与卷积神经网络的通俗解读 我们的大脑之所以能完成思考、判断、感知等复杂任务,核心在于其内部千亿级神经元组成的精密网络。当科学家试图用机器复刻这种智能时,便诞生了“人工神经网络”,而感知机正是这一领域的“初代基石”,多层感知器实现了从单神 阅读全文
posted @ 2025-12-07 09:19
wangya216
阅读(57)
评论(0)
推荐(0)
摘要:
从人脑神经元到PyTorch深度神经网络:感知机、多层感知器与卷积神经网络的通俗解读 我们的大脑之所以能完成思考、判断、感知等复杂任务,核心在于其内部千亿级神经元组成的精密网络。当科学家试图用机器复刻这种智能时,便诞生了“人工神经网络”,而感知机正是这一领域的“初代基石”,多层感知器实现了从单神经元 阅读全文
posted @ 2025-12-07 09:16
wangya216
阅读(15)
评论(0)
推荐(0)

浙公网安备 33010602011771号