上一页 1 2 3 4 5 6 ··· 10 下一页
摘要: 这是一个非常关键且常见的问题。简明回答如下: 不是“每个神经元”单独负责一个特征,也不是“整层”作为一个整体提取一个特征,而是: 每一层的多个神经元协同工作 下面我们从机制、实例和认知三个层面展开说明。 一、机制层面:神经元是“特征检测器”,层是“特征抽象层级” ✅ 每个神经元 ≈ 一个可学习的特征 阅读全文
posted @ 2025-12-13 01:16 wangya216 阅读(51) 评论(0) 推荐(0)
摘要: 在人工智能的世界里,有一种神奇的学习方式,它不需要人类手把手标注数据,却能让AI学会识别图像、理解语言,甚至预测未来——这就是自监督学习(Self-Supervised Learning)。 听起来有点玄?别急,我们用一个简单的比喻来揭开它的面纱。 🧩 比喻:AI在玩“填空游戏” 想象你小时候做语 阅读全文
posted @ 2025-12-10 13:43 wangya216 阅读(124) 评论(0) 推荐(0)
摘要: 是的。“主动学习(Active Learning)”是机器学习中一种高效利用标注数据的策略,它的核心思想可以用一句话概括: 让模型自己决定“接下来最该学哪一条数据”,而不是被动地接受所有已标注的数据。 下面我们用一个生活化的例子 + 技术解释,帮你彻底理解。 🌰 举个生活例子:学生 vs 老师 想 阅读全文
posted @ 2025-12-10 13:41 wangya216 阅读(80) 评论(0) 推荐(0)
摘要: AI里的“自主学习”和“机器学习”是一回事吗? 在人工智能(AI)的讨论中,我们常听到两个词:“机器学习”和“自主学习”。有人把它们当作同义词使用,也有人觉得“自主学习”听起来更高级、更接近人类智能。那么,这两个概念到底是不是一回事?它们之间又有什么联系与区别? 答案是:“自主学习”不是严格的技术术 阅读全文
posted @ 2025-12-10 13:38 wangya216 阅读(72) 评论(0) 推荐(0)
摘要: 机器学习的主要范式 机器学习是人工智能的核心分支,其核心目标是让计算机系统能够从数据中自动学习规律,并用于预测、决策或控制。根据训练数据的形式、可用信息以及学习目标的不同,机器学习方法通常被划分为若干“学习范式”。理解这些范式,有助于我们选择合适的方法解决实际问题。 以下是当前主流的机器学习范式及其 阅读全文
posted @ 2025-12-08 08:56 wangya216 阅读(73) 评论(0) 推荐(0)
摘要: 从“混为一谈”到“各有专攻”:规则式AI、自动控制与人工智能的历史纠葛 在科技圈,“人工智能”“自动控制”“规则式AI”这三个概念曾长期纠缠不清。上世纪90年代以前,不少人把家里的恒温空调、工厂的流水线控制系统都称为“AI”;而今天,我们已经清楚地知道:PID温控不算AI,早期的故障诊断专家系统也与 阅读全文
posted @ 2025-12-08 07:01 wangya216 阅读(62) 评论(0) 推荐(0)
摘要: 符号主义AI:规则驱动的“专家系统”如何给汽车“诊病”? 提到符号主义AI(Symbolic AI),它其实就是我们常说的“规则式AI”的理论根基。作为人工智能发展早期的核心流派,其核心思想非常直观:将人类专家的知识转化为机器可理解的符号与规则,再通过逻辑推理解决问题。 为了更具体地理解这一范式,我 阅读全文
posted @ 2025-12-08 07:00 wangya216 阅读(53) 评论(0) 推荐(0)
摘要: 反向传播算法:攻克多层感知机训练难题的关键革命 在神经网络发展的历史长河中,多层感知机(Multilayer Perceptron,MLP)曾因训练难题被束之高阁,而反向传播算法(Backpropagation) 的出现,犹如一把钥匙,打开了多层神经网络实用化的大门。它不仅解决了多层感知机梯度计算的 阅读全文
posted @ 2025-12-07 22:15 wangya216 阅读(95) 评论(0) 推荐(0)
摘要: 卷积神经网络是从多层感知机基础上发展起来的吗? 在深度学习的发展历程中,卷积神经网络(CNN)和多层感知机(MLP)是两大核心架构,二者时常被放在一起比较。一个常见的疑问是:卷积神经网络是否从多层感知机的基础上发展而来? 答案是:CNN并非MLP的直接衍生产物,二者是基于不同设计理念、并行发展的神经 阅读全文
posted @ 2025-12-07 22:04 wangya216 阅读(61) 评论(0) 推荐(0)
摘要: 澄清:梯度下降优化的是模型参数,而非损失函数本身 在深度学习的表述中,“通过梯度下降(如SGD、Adam)优化损失函数”是一个口语化的简化说法,很容易引发误解——它的真实含义并不是修改损失函数的公式或参数,而是通过调整神经网络的可学习参数,来最小化损失函数的取值。下面我们从概念本质、操作流程和易混点 阅读全文
posted @ 2025-12-07 21:55 wangya216 阅读(51) 评论(0) 推荐(0)
摘要: 梯度下降:站在碗壁,如何找到最低点? 想象你站在一个巨大、光滑的陶瓷碗的内壁上。 你被蒙住眼睛,看不见碗底,也看不到碗口——但你知道:真正的目标在碗的最底部。 这,就是深度学习中“梯度下降”的核心画面。 🥣 为什么是“碗”?——损失函数的形状 在训练AI模型时,我们用一个叫 损失函数(Loss F 阅读全文
posted @ 2025-12-07 21:41 wangya216 阅读(29) 评论(0) 推荐(0)
摘要: 梯度:明明是个“方向”,为啥偏叫“度”? 提到“梯度”,很多人第一次见这个词都会犯嘀咕: 它明明是深度学习里给模型指路的“方向标”,告诉模型该往哪走才能让预测更准,怎么看都是个方向概念,为啥名字里带个“度”字? 这事儿得从数学老祖宗的“起名艺术”和它的真实本领说起。 先给结论:梯度的“度”,不是“角 阅读全文
posted @ 2025-12-07 21:36 wangya216 阅读(73) 评论(0) 推荐(0)
摘要: 不同深度学习框架中实现人工神经元基本计算单元的模块对比 在人工神经网络中,最核心的计算单元遵循统一的数学形式: \[\mathbf{y} = f(\mathbf{W}\mathbf{x} + \mathbf{b}) \]其中: \(\mathbf{x}\) 是输入向量, \(\mathbf{W}\) 阅读全文
posted @ 2025-12-07 21:04 wangya216 阅读(18) 评论(0) 推荐(0)
摘要: 一文读懂激活函数 激活函数是让神经网络从“只能拟合直线”变成“能拟合复杂曲线”的关键。没有激活函数,再深的神经网络也只是个“线性回归的堆叠”;有了激活函数,神经网络才能识别图像、翻译语言、预测复杂规律。 今天我们就用通俗的语言,讲透激活函数的核心逻辑:它是什么、为什么需要它、常用激活函数有哪些,以及 阅读全文
posted @ 2025-12-07 20:46 wangya216 阅读(109) 评论(0) 推荐(1)
摘要: 一文读懂MindSpore的construct方法:神经网络的“自动流水线” 在MindSpore里写神经网络时,总有个绕不开的construct方法——它既不用我们手动调用,却能让模型自动完成从输入到输出的计算。很多新手会疑惑:这方法到底是干啥的?啥时候会跑起来?为啥不能直接写个forward函数 阅读全文
posted @ 2025-12-07 20:26 wangya216 阅读(23) 评论(0) 推荐(0)
摘要: 实操教程:MindSpore中确定神经网络隐藏层与输出层神经元数量 在神经网络建模中,隐藏层/输出层神经元数量的配置直接决定模型性能。不合理的设置会导致欠拟合、过拟合或训练收敛困难。本文基于MindSpore框架,通过理论+完整代码实操,系统讲解输出层与隐藏层神经元数量的确定逻辑,涵盖鸢尾花3分类、 阅读全文
posted @ 2025-12-07 20:25 wangya216 阅读(34) 评论(0) 推荐(0)
摘要: scikit-learn 能否做深度学习?——兼谈不同神经元数量的模型对比实验实现 在机器学习工具选型中,很多人会有一个疑问:scikit-learn(简称sklearn)只支持传统机器学习,不包含深度学习功能吗? 答案是:不完全准确。sklearn 的核心定位是传统机器学习(如决策树、SVM、逻辑 阅读全文
posted @ 2025-12-07 20:15 wangya216 阅读(38) 评论(0) 推荐(0)
摘要: “人工神经元只能有一个输入?”—— 澄清输入层、隐藏层与输出层的关键差异 在学习人工神经网络时,很多人会被三个核心问题绕晕:一是“人工神经元是不是只能有一个输入?”,尤其看到“输入层节点数量等于特征数”时容易误解;二是“隐藏层、输出层神经元的参数是不是都一样?”;三是“‘加权求和+偏置+输出’的整体 阅读全文
posted @ 2025-12-07 20:08 wangya216 阅读(62) 评论(0) 推荐(0)
摘要: 从人脑神经元到MindSpore深度神经网络:感知机、多层感知器与卷积神经网络的通俗解读 我们的大脑之所以能完成思考、判断、感知等复杂任务,核心在于其内部千亿级神经元组成的精密网络。当科学家试图用机器复刻这种智能时,便诞生了“人工神经网络”,而感知机正是这一领域的“初代基石”,多层感知器实现了从单神 阅读全文
posted @ 2025-12-07 09:19 wangya216 阅读(72) 评论(0) 推荐(0)
摘要: 从人脑神经元到PyTorch深度神经网络:感知机、多层感知器与卷积神经网络的通俗解读 我们的大脑之所以能完成思考、判断、感知等复杂任务,核心在于其内部千亿级神经元组成的精密网络。当科学家试图用机器复刻这种智能时,便诞生了“人工神经网络”,而感知机正是这一领域的“初代基石”,多层感知器实现了从单神经元 阅读全文
posted @ 2025-12-07 09:16 wangya216 阅读(37) 评论(0) 推荐(0)
摘要: 深度学习入门教程(MindSpore版) 前言 这篇教程面向零基础小白,不堆砌复杂公式,只用“人话”+ 可运行的MindSpore代码,带你搞懂深度学习的核心逻辑,亲手跑通第一个深度学习模型。 MindSpore是华为推出的全场景深度学习框架,特点是易上手、适配国产硬件,新手友好度拉满。我们先搞定“ 阅读全文
posted @ 2025-12-06 15:43 wangya216 阅读(41) 评论(0) 推荐(0)
摘要: Scikit-learn与MindSpore的概念对比:相同点、差异及叫法区别 Scikit-learn(简称sklearn)是传统机器学习工具库,MindSpore是全场景深度学习框架,二者因定位不同,既有底层逻辑相通的概念,也有大量专属概念和叫法差异,下面分维度拆解: 一、相同核心概念(底层逻辑 阅读全文
posted @ 2025-12-06 13:52 wangya216 阅读(28) 评论(0) 推荐(0)
摘要: 深度学习、机器学习与强化学习的关系:通俗解析(从基础到细分) 很多新手会混淆这三个概念:机器学习是“大范畴”,深度学习是机器学习的“子集”(靠神经网络实现),强化学习是机器学习的“另一独立子集”(靠交互试错学习) —— 三者不是并列关系,而是“总-分”+“不同细分方向”的关系。 用一句话概括核心: 阅读全文
posted @ 2025-12-06 00:09 wangya216 阅读(388) 评论(0) 推荐(0)
摘要: 线性回归、多层感知机(MLP)与CNN的区别与联系:通俗解析(MindSpore视角) 上一篇教程我们用线性回归入门了深度学习,现在聚焦三个核心模型——线性回归、多层感知机(MLP)、卷积神经网络(CNN),用“人话+实例”讲清它们的关系:本质都是“从数据找规律的函数”,区别在于处理数据的能力、结构 阅读全文
posted @ 2025-12-06 00:05 wangya216 阅读(255) 评论(0) 推荐(0)
摘要: 1 强化学习入门教程:像教小孩走路一样搞懂AI 不用记公式、不用懂代码,咱们用教小孩学走路这个事儿,把强化学习讲得明明白白。 一、强化学习的本质:试错中找甜头 先想一个场景:你家刚会爬的小宝宝,想自己站起来走路。 宝宝(咱们叫它 智能体)一开始啥也不会,只能瞎晃、摔跤; 它站了1秒没倒,你拍手夸它、 阅读全文
posted @ 2025-12-04 17:25 wangya216 阅读(204) 评论(0) 推荐(0)
上一页 1 2 3 4 5 6 ··· 10 下一页