上一页 1 2 3 4 5 6 7 ··· 12 下一页
摘要: # 优化: # 1. 增加Modulist类,再次封装每层及forward和backward # 2. 删除import matplotlib.pyplot as plt,暂时不需要画图;删去全局变量shuffle,在linear类实现 # 3. 增加__repr__魔数,可以快速查看每层大小 # 阅读全文
posted @ 2025-09-25 15:27 李大嘟嘟 阅读(7) 评论(0) 推荐(0)
摘要: __repr__ 是 Python 中一个非常重要的魔术方法(Magic Method),也常被称为双下划线方法 (Dunder Method)。它的主要作用是为对象提供一个官方的、明确的、面向开发者的字符串表示形式(Representation)。 简单来说,当你需要用代码的方式来重建或识别一个对 阅读全文
posted @ 2025-09-25 14:17 李大嘟嘟 阅读(12) 评论(0) 推荐(0)
摘要: 二维数组ba,三维数组cba,多维数组n...ba,他们的axis=-1,这个维度都是指向a axis=-1 的通用性 无论 NumPy 数组有多少个维度,axis=-1 总是指向最后一个维度。 数组类型 形状(Shape) 维度索引 axis=-1 指向 一维数组 (a,) axis=0 或 ax 阅读全文
posted @ 2025-09-25 13:37 李大嘟嘟 阅读(12) 评论(0) 推荐(0)
摘要: np.arange 函数是 NumPy 库中一个非常实用的函数,用于创建等差数列。它的功能类似于 Python 内置的 range() 函数,但它返回的是一个 numpy.ndarray 类型的数组,这使得它在科学计算中非常方便。 np.arange 的基本用法 np.arange 的基本语法有三种 阅读全文
posted @ 2025-09-24 23:12 李大嘟嘟 阅读(16) 评论(0) 推荐(0)
摘要: ReLU 函数 ReLU(Rectified Linear Unit,修正线性单元)是目前在深度学习中最常用的激活函数。它的数学表达式非常简单: f(x) = max(0, x) 这意味着当输入 $x$ 大于 0 时,输出就是 $x$ 本身;当输入 $x$ 小于或等于 0 时,输出就是 0。 ReL 阅读全文
posted @ 2025-09-23 21:37 李大嘟嘟 阅读(70) 评论(0) 推荐(0)
摘要: tanh函数(双曲正切函数)是神经网络中一种常用的激活函数,它的数学表达式为: 它的输出范围是 (-1, 1)。 tanh函数的特点 非线性:和 Sigmoid 函数一样,tanh 函数也是非线性的,这使得它能够为神经网络引入非线性特性,从而学习和解决更复杂的问题。 对称性:tanh 函数关于原点对 阅读全文
posted @ 2025-09-23 21:17 李大嘟嘟 阅读(35) 评论(0) 推荐(0)
摘要: #这个版本考虑将隐藏层、输出层及对应的forward和backward封装到对于类中 #减少了步长,实测lr>0.02就会溢出,可能是哪里没有优化好 # 导入必要的库 import numpy as np import os import struct import matplotlib.pyplo 阅读全文
posted @ 2025-09-23 21:06 李大嘟嘟 阅读(17) 评论(0) 推荐(0)
摘要: # 导入必要的库 import numpy as np import os import struct import matplotlib.pyplot as plt # 定义导入函数 def load_images(path): with open(path, "rb") as f: data = 阅读全文
posted @ 2025-09-23 11:20 李大嘟嘟 阅读(12) 评论(0) 推荐(0)
摘要: 在机器学习和深度学习中,我们通常不会用全部数据来训练模型,而是将其划分为三个独立的部分:训练集、验证集和测试集。 这就像一个学生准备考试一样: 1. 训练集 (Training Set) 训练集是学生上课时做的所有练习题。 作用:用来训练模型。模型通过在训练集上学习数据中的模式和规律,并根据这些规律 阅读全文
posted @ 2025-09-22 18:05 李大嘟嘟 阅读(46) 评论(0) 推荐(0)
摘要: [::-1] 是 Python 中一种非常简洁且常用的切片(slice)语法,它的作用是反转序列。 它可以用在多种数据类型上,包括: 列表 (list) 字符串 (string) 元组 (tuple) NumPy 数组 语法解析 切片语法的一般形式是:[start:stop:step] start: 阅读全文
posted @ 2025-09-22 17:03 李大嘟嘟 阅读(10) 评论(0) 推荐(0)
上一页 1 2 3 4 5 6 7 ··· 12 下一页