上一页 1 2 3 4 5 6 ··· 10 下一页
摘要: 一文读懂MindSpore的construct方法:神经网络的“自动流水线” 在MindSpore里写神经网络时,总有个绕不开的construct方法——它既不用我们手动调用,却能让模型自动完成从输入到输出的计算。很多新手会疑惑:这方法到底是干啥的?啥时候会跑起来?为啥不能直接写个forward函数 阅读全文
posted @ 2025-12-07 20:26 wangya216 阅读(12) 评论(0) 推荐(0)
摘要: 实操教程:MindSpore中确定神经网络隐藏层与输出层神经元数量 在神经网络建模中,隐藏层/输出层神经元数量的配置直接决定模型性能。不合理的设置会导致欠拟合、过拟合或训练收敛困难。本文基于MindSpore框架,通过理论+完整代码实操,系统讲解输出层与隐藏层神经元数量的确定逻辑,涵盖鸢尾花3分类、 阅读全文
posted @ 2025-12-07 20:25 wangya216 阅读(10) 评论(0) 推荐(0)
摘要: scikit-learn 能否做深度学习?——兼谈不同神经元数量的模型对比实验实现 在机器学习工具选型中,很多人会有一个疑问:scikit-learn(简称sklearn)只支持传统机器学习,不包含深度学习功能吗? 答案是:不完全准确。sklearn 的核心定位是传统机器学习(如决策树、SVM、逻辑 阅读全文
posted @ 2025-12-07 20:15 wangya216 阅读(16) 评论(0) 推荐(0)
摘要: “人工神经元只能有一个输入?”—— 澄清输入层、隐藏层与输出层的关键差异 在学习人工神经网络时,很多人会被三个核心问题绕晕:一是“人工神经元是不是只能有一个输入?”,尤其看到“输入层节点数量等于特征数”时容易误解;二是“隐藏层、输出层神经元的参数是不是都一样?”;三是“‘加权求和+偏置+输出’的整体 阅读全文
posted @ 2025-12-07 20:08 wangya216 阅读(27) 评论(0) 推荐(0)
摘要: 从人脑神经元到MindSpore深度神经网络:感知机、多层感知器与卷积神经网络的通俗解读 我们的大脑之所以能完成思考、判断、感知等复杂任务,核心在于其内部千亿级神经元组成的精密网络。当科学家试图用机器复刻这种智能时,便诞生了“人工神经网络”,而感知机正是这一领域的“初代基石”,多层感知器实现了从单神 阅读全文
posted @ 2025-12-07 09:19 wangya216 阅读(57) 评论(0) 推荐(0)
摘要: 从人脑神经元到PyTorch深度神经网络:感知机、多层感知器与卷积神经网络的通俗解读 我们的大脑之所以能完成思考、判断、感知等复杂任务,核心在于其内部千亿级神经元组成的精密网络。当科学家试图用机器复刻这种智能时,便诞生了“人工神经网络”,而感知机正是这一领域的“初代基石”,多层感知器实现了从单神经元 阅读全文
posted @ 2025-12-07 09:16 wangya216 阅读(15) 评论(0) 推荐(0)
摘要: 深度学习入门教程(MindSpore版) 前言 这篇教程面向零基础小白,不堆砌复杂公式,只用“人话”+ 可运行的MindSpore代码,带你搞懂深度学习的核心逻辑,亲手跑通第一个深度学习模型。 MindSpore是华为推出的全场景深度学习框架,特点是易上手、适配国产硬件,新手友好度拉满。我们先搞定“ 阅读全文
posted @ 2025-12-06 15:43 wangya216 阅读(26) 评论(0) 推荐(0)
摘要: Scikit-learn与MindSpore的概念对比:相同点、差异及叫法区别 Scikit-learn(简称sklearn)是传统机器学习工具库,MindSpore是全场景深度学习框架,二者因定位不同,既有底层逻辑相通的概念,也有大量专属概念和叫法差异,下面分维度拆解: 一、相同核心概念(底层逻辑 阅读全文
posted @ 2025-12-06 13:52 wangya216 阅读(14) 评论(0) 推荐(0)
摘要: 深度学习、机器学习与强化学习的关系:通俗解析(从基础到细分) 很多新手会混淆这三个概念:机器学习是“大范畴”,深度学习是机器学习的“子集”(靠神经网络实现),强化学习是机器学习的“另一独立子集”(靠交互试错学习) —— 三者不是并列关系,而是“总-分”+“不同细分方向”的关系。 用一句话概括核心: 阅读全文
posted @ 2025-12-06 00:09 wangya216 阅读(84) 评论(0) 推荐(0)
摘要: 线性回归、多层感知机(MLP)与CNN的区别与联系:通俗解析(MindSpore视角) 上一篇教程我们用线性回归入门了深度学习,现在聚焦三个核心模型——线性回归、多层感知机(MLP)、卷积神经网络(CNN),用“人话+实例”讲清它们的关系:本质都是“从数据找规律的函数”,区别在于处理数据的能力、结构 阅读全文
posted @ 2025-12-06 00:05 wangya216 阅读(103) 评论(0) 推荐(0)
摘要: 1 强化学习入门教程:像教小孩走路一样搞懂AI 不用记公式、不用懂代码,咱们用教小孩学走路这个事儿,把强化学习讲得明明白白。 一、强化学习的本质:试错中找甜头 先想一个场景:你家刚会爬的小宝宝,想自己站起来走路。 宝宝(咱们叫它 智能体)一开始啥也不会,只能瞎晃、摔跤; 它站了1秒没倒,你拍手夸它、 阅读全文
posted @ 2025-12-04 17:25 wangya216 阅读(100) 评论(0) 推荐(0)
摘要: 告别Jupyter包安装烦恼:!pip、%pip、!python -m pip 用法全解析 在使用Jupyter Notebook/Lab进行数据分析、机器学习开发时,安装第三方库是基础操作,但很多人都会遇到「明明装了库却导入失败」「包装到全局环境而非当前内核」的问题。核心原因在于没选对pip的调用 阅读全文
posted @ 2025-12-04 16:59 wangya216 阅读(54) 评论(0) 推荐(0)
摘要: Sklearn 入门教程:从思维到落地的完整指南 引言 Sklearn(Scikit-learn)堪称Python机器学习领域的“瑞士军刀”——不仅API设计简洁统一、工具链覆盖全场景,更核心的是其蕴含的机器学习通用思维,能无缝迁移到TensorFlow、PyTorch等框架,适配分类、回归、聚类等 阅读全文
posted @ 2025-12-04 13:38 wangya216 阅读(29) 评论(0) 推荐(0)
摘要: 视图是什么? 在 NumPy 中,“视图(view)” 是一个非常核心且高效的概念。理解它,能帮你写出更快、更省内存的代码。 🌟 一句话定义: 视图是原数组的一个“窗口”或“别名”,它不复制数据,而是共享同一块内存。 修改视图,会直接影响原数组;反之亦然。 🔍 举个例子 import numpy 阅读全文
posted @ 2025-12-03 11:06 wangya216 阅读(23) 评论(0) 推荐(0)
摘要: In [4]: # 导入所有需要的库 import numpy as np import matplotlib.pyplot as plt from sklearn.datasets import load_diabetes from sklearn.ensemble import RandomFo 阅读全文
posted @ 2025-12-02 20:24 wangya216 阅读(22) 评论(0) 推荐(0)
摘要: 聚类(Clustering) from sklearn.cluster import KMeans 🔤 逐词翻译: sklearn:scikit-learn,Python 最流行的机器学习库 cluster(聚类):一种无监督学习任务,目标是把相似的数据点“分组” KMeans(K均值):最经典、 阅读全文
posted @ 2025-12-01 09:58 wangya216 阅读(36) 评论(0) 推荐(0)
摘要: 代码清单9-1 导入scikit-learn工具包¶ In [2]: import sklearn #导入sklearn工具包 from sklearn import ensemble #从sklearn工具包中导入ensemble模块 from sklearn.ensemble import Gr 阅读全文
posted @ 2025-11-30 10:05 wangya216 阅读(12) 评论(0) 推荐(0)
摘要: 深度解析 Polynomial(多项式):从数学本质到机器学习应用的全方位指南 在数学与机器学习的交叉领域,“多项式(Polynomial)”是一个贯穿基础与应用的核心概念——它既是描述非线性关系的数学工具,也是连接线性模型与复杂数据的桥梁。本文将从“名字由来”“数学定义”“生活实例”“机器学习应用 阅读全文
posted @ 2025-11-29 14:42 wangya216 阅读(101) 评论(0) 推荐(0)
摘要: 把“弯”的变成“直”的—— 为什么大家老爱把非线性问题塞进线性模型?(精修版) 一、先讲个生活段子 你去买菜,老板告诉你: “萝卜 2 块钱一斤,买 3 斤以上打 8 折,5 斤以上打 6 折。” 价格跟重量不是一条直线,是“折线”——典型的非线性。 可你回家记账,只愿意写一行: “今天买萝卜花了 阅读全文
posted @ 2025-11-29 11:10 wangya216 阅读(16) 评论(0) 推荐(0)
摘要: 为什么说 y = a₁x₁ + a₂x₂ + b 是线性的? 0. 开场白 很多人第一次看到这个方程都会点头:“嗯,线性!” 可一旦追问“为什么”,答案往往只剩一句:“因为图像是一条直线……呃不,一张平面?” 故事还没完。今天咱们把“直线”→“平面”→“数学定义”→“工程习惯”一次说完,带你从直觉到 阅读全文
posted @ 2025-11-29 10:51 wangya216 阅读(7) 评论(0) 推荐(0)
摘要: I 彻底解决Z轴标签截断问题(强制预留标签空间) 用“釜底抽薪”的思路——直接给Z轴标签单独预留独立空间,不用再微调边距和位置,无论你的画布尺寸、Matplotlib版本如何,都能100%完整显示,以下是必生效的代码: 最终最终完整代码(标签无任何截断) import matplotlib.pypl 阅读全文
posted @ 2025-11-29 10:05 wangya216 阅读(14) 评论(0) 推荐(0)
摘要: Matplotlib 3D图入门教程 Matplotlib 绘制 3D 图的核心是 mpl_toolkits.mplot3d 工具包,它在 2D 绘图基础上增加了“z轴”维度,原理和 2D 绘图一致——都是通过 Figure(画布)和 Axes(绘图区域)控制,只是 3D 图的 Axes 是专门的 阅读全文
posted @ 2025-11-29 09:14 wangya216 阅读(82) 评论(0) 推荐(0)
摘要: 一、函数基础:train_test_split 是什么? train_test_split 是 sklearn 提供的数据集划分工具,核心功能是: 随机打乱原始数据(避免数据有序性导致的偏差); 按指定比例拆分数据为「两部分」(默认是训练集和测试集); 保证拆分后,x 和 y 的对应关系不混乱(即某 阅读全文
posted @ 2025-11-28 21:56 wangya216 阅读(71) 评论(0) 推荐(0)
摘要: 一、完整语法与参数解释 np.random.normal(loc=0, scale=1, size=None) 是 NumPy 中生成「正态分布(高斯分布)」随机数的核心函数,参数含义如下: 参数名 默认值 作用说明 对应代码中的含义 loc 0 正态分布的「均值(μ)」,决定分布的中心位置 噪声的 阅读全文
posted @ 2025-11-28 21:41 wangya216 阅读(84) 评论(0) 推荐(0)
摘要: 在编程(尤其是数据科学、机器学习)中,随机种子(Random Seed)是一个用于初始化随机数生成器的“起始值”,核心作用是让「随机过程可复现」——简单说,用相同的随机种子,每次运行代码得到的随机结果(如随机划分数据、生成随机噪声、模型初始化权重)完全一致;不设置种子则每次结果都不同。 一、先看直观 阅读全文
posted @ 2025-11-28 21:31 wangya216 阅读(94) 评论(0) 推荐(0)
上一页 1 2 3 4 5 6 ··· 10 下一页