随笔分类 -  Deep Learning

神经网络与深度学习(邱锡鹏)编程练习 2 线性回归的参数优化 基函数回归 Jupyter导出版
摘要:ref:https://www.cnblogs.com/douzujun/p/13282073.html 按照“填空顺序编号”分别完成“参数优化”,“不同基函数”的实现 import numpy as np import matplotlib.pyplot as plt def load_data( 阅读全文

posted @ 2022-06-01 11:28 HBU_DAVID 阅读(435) 评论(0) 推荐(0)

神经网络与深度学习(邱锡鹏)编程练习 3 实验1 Logistic回归 pytorch
摘要:实验目标: 实现sigmoid的交叉熵损失函数(不使用tf内置的loss 函数) # 填空一,实现sigmoid的交叉熵损失函数(不使用内置的 loss 函数) # loss_fn = nn.BCELoss() # pytorch交叉熵损失函数 def loss_fn(label, pred): # 阅读全文

posted @ 2022-05-31 21:35 HBU_DAVID 阅读(452) 评论(0) 推荐(0)

神经网络与深度学习(邱锡鹏)编程练习 3 Logistic回归、softmax回归、支持向量机(SVM)
摘要:Logistic回归以及softmax回归 问题描述 完成 logistic_regression-exercise.ipnb中的填空 填空一:实现sigmoid的交叉熵损失函数(不使用tf内置的loss 函数) 完成 softmax_regression-exercise.ipnb中的填空 填空一 阅读全文

posted @ 2022-05-31 16:23 HBU_DAVID 阅读(480) 评论(0) 推荐(0)

神经网络与深度学习(邱锡鹏)编程练习 2 实验5 使用pytorch实现线性回归、基函数回归
摘要:# 定义模型 class LR(nn.Module): def __init__(self): super().__init__() self.lr = nn.Linear(ndim, 1) def forward(self, x): out = self.lr(x) return out mode 阅读全文

posted @ 2022-05-31 11:23 HBU_DAVID 阅读(284) 评论(0) 推荐(0)

神经网络与深度学习(邱锡鹏)编程练习 2 实验4 基函数回归(梯度下降法优化)
摘要:多项式基函数 梯度下降优化过程中,产生“梯度爆炸”,在第14轮运算溢出。 def gradient(phi_grad, y, w_init, lr=0.001, step_num=16): # lr 学习率; step_num 迭代次数 w_train = w_init for i in range 阅读全文

posted @ 2022-05-30 17:10 HBU_DAVID 阅读(264) 评论(0) 推荐(1)

神经网络与深度学习(邱锡鹏)编程练习 2 实验3 基函数回归(最小二乘法优化)
摘要:通过基函数对元素数据进行交换,从而将变量间的线性回归模型转换为非线性回归模型。 最小二乘法 + 多项式基函数 最小二乘法 + 高斯基函数 def multinomial_basis(x, feature_num=10): x = np.expand_dims(x, axis=1) # shape(N 阅读全文

posted @ 2022-05-30 16:24 HBU_DAVID 阅读(390) 评论(0) 推荐(0)

神经网络与深度学习(邱锡鹏)编程练习 2 实验2 线性回归的参数优化 - 梯度下降法
摘要:实验结果: 源代码: import numpy as np import matplotlib.pyplot as plt def load_data(filename): # 载入数据 xys = [] with open(filename, 'r') as f: for line in f: x 阅读全文

posted @ 2022-05-30 15:19 HBU_DAVID 阅读(378) 评论(1) 推荐(0)

神经网络与深度学习(邱锡鹏)编程练习 2 实验1 线性回归的参数优化 - 最小二乘法
摘要:实验结果: 源代码: import numpy as np import matplotlib.pyplot as plt def load_data(filename): # 载入数据 xys = [] with open(filename, 'r') as f: for line in f: x 阅读全文

posted @ 2022-05-30 14:22 HBU_DAVID 阅读(252) 评论(0) 推荐(0)

神经网络与深度学习(邱锡鹏)编程练习 2 题目解析
摘要:实验1:线性回归的参数优化-最小二乘法 1 最小二乘法原理 基于均方误差最小化进行模型求解。 线性回归中,试图找到一条直线,使所有样本到直线的欧氏距离之和最小。(西瓜书P54) 图源:NNDL P34 2 最小二乘法优化公式 (参考书中第二章 2.3中的公式),在main()中利用训练集训练模型的参 阅读全文

posted @ 2022-05-30 11:20 HBU_DAVID 阅读(576) 评论(0) 推荐(0)

神经网络与深度学习(邱锡鹏)编程练习 2 线性回归 参数优化 不同基函数实现
摘要:说明 请按照填空顺序编号分别完成 参数优化,不同基函数的实现 import numpy as np import matplotlib.pyplot as plt def load_data(filename): """载入数据。""" xys = [] with open(filename, 'r 阅读全文

posted @ 2022-05-30 11:06 HBU_DAVID 阅读(370) 评论(0) 推荐(0)

神经网络与深度学习(邱锡鹏)编程练习 1 numpy 练习
摘要:numpy 练习题 numpy 的array操作 1.导入numpy库 2.建立一个一维数组 a 初始化为[4,5,6], (1)输出a 的类型(type)(2)输出a的各维度的大小(shape)(3)输出 a的第一个元素(值为4) 3.建立一个二维数组 b,初始化为 [ [4, 5, 6],[1, 阅读全文

posted @ 2022-05-30 10:55 HBU_DAVID 阅读(166) 评论(0) 推荐(0)

神经网络与深度学习(邱锡鹏)编程练习 1 实验
摘要:源代码: # numpy练习题 print(" numpy练习题 1 ") # 1.导入numpy库 import numpy as np print(" numpy练习题 2 ") # 2.建立一个一维数组a初始化为[4, 5, 6], # (1) 输出a的类型(type) # (2) 输出a的各 阅读全文

posted @ 2022-05-29 22:40 HBU_DAVID 阅读(441) 评论(0) 推荐(0)

神经网络与深度学习(邱锡鹏)学习记录
摘要:神经网络与深度学习 作者:邱锡鹏 神经网络与深度学习 (nndl.github.io) 阅读全文

posted @ 2022-05-29 21:12 HBU_DAVID 阅读(75) 评论(0) 推荐(0)

导航