摘要: LSTM时序数据预测实践(实时股票数据) ​ 预测结果展示(以红线分割,红线前数据参与训练,红线后数据未参与训练): ​ 红线以后可以看到随着预测时间段的加长,预测误差会越来越大。 获取最新股票数据 import pandas_datareader.data as web # 读取实时股票数据的接口 阅读全文
posted @ 2022-03-16 18:18 旁人怎会懂 阅读(652) 评论(0) 推荐(0) 编辑
摘要: 验证LSTM内部实现流程,加深对LSTM的印象 LSTM结构图单层 LSTM结构图多层 # 验证经过一个cell的计算 import torch import torch.nn as nn # 1. 设置特征 feature_size = 4 batch_size = 1 hidden_size = 阅读全文
posted @ 2022-03-14 11:47 旁人怎会懂 阅读(88) 评论(0) 推荐(0) 编辑
摘要: RNN输入数据加工问题与循环流程分析(torch) RNN 输入序列数据加工处理 1.1 原始数据 # 假设训练样本text,为4行文本,每个词的词向量为torch.size(1),单元素0维量,tensor.item()获取其中元素 ''' text = [我, 我 爱 你, 爱 , 你 ] -- 阅读全文
posted @ 2022-03-10 17:06 旁人怎会懂 阅读(72) 评论(0) 推荐(0) 编辑
摘要: 手工简单复现经典CNN网络测试 **前言:**突然想把看到的机器视觉的经典网络(LeNet5、AlexNet、VGG16、GoogLeNet、ResNet)手工复现一遍,运气好的可以看到效果时逐渐趋于完美的,但现实是残酷的,这里把遇到的问题和部分结果记录以下(真心认为解决问题的过程就是成长的过程) 阅读全文
posted @ 2022-03-01 09:52 旁人怎会懂 阅读(240) 评论(0) 推荐(0) 编辑
摘要: 一直不太明白词向量怎样产生,搜索生成原理后,自己分别使用word2vector和自建单隐层神经网络进行训练(数据集优美,量少,不用太在意训练效果,主要记录流程) 先介绍数据处理与网络架构: 1.训练数据集: import torch import torch.nn as nn from torch. 阅读全文
posted @ 2022-02-13 19:58 旁人怎会懂 阅读(40) 评论(0) 推荐(0) 编辑
摘要: ## 验证 CrossEntropyLoss 内部运算过程 import torch from torch.nn import CrossEntropyLoss from torch.optim import SGD # 假设三分类真实值real 和预测值pred real = [0,1,1,2] 阅读全文
posted @ 2022-02-09 09:40 旁人怎会懂 阅读(36) 评论(0) 推荐(0) 编辑
摘要: 详细了解参见这篇,写的很棒https://blog.csdn.net/imsuhxz/article/details/87337608 阅读全文
posted @ 2022-01-30 15:36 旁人怎会懂 阅读(28) 评论(0) 推荐(0) 编辑
摘要: 一、一直对xgboost的输出有些疑惑,这里记录一下 1.xgboost的predict接口输出问题(参数pred_leaf、pred_contribs) 2.训练过程中输出相关参数的探究(evals、evals_result、verbose_eval) 3.多分类内部原理探究(不涉及源码) 4.利 阅读全文
posted @ 2022-01-30 10:51 旁人怎会懂 阅读(1062) 评论(0) 推荐(0) 编辑
摘要: jupyterhub 安装、安装问题解决、用户验证问题 一,基础环境 腾讯云centos7 + anaconda3(python3.8.8) ​ 注意:最好是带有网的环境,不带外网的电脑离线安装jupyterhub安装很费劲,github源码、whl等均失败。 二,下载软件 安装jupyterhub 阅读全文
posted @ 2021-11-18 09:58 旁人怎会懂 阅读(4611) 评论(0) 推荐(0) 编辑
摘要: 手写简单的BP(反向传播)算法(一个隐藏层),网络结构如下: 具体代码实现及数据预测结果: import numpy as np import matplotlib.pyplot as plt # 训练集特征2维 X = np.array([[2,1],[-1,1],[-1,-1],[1,-1]]) 阅读全文
posted @ 2021-10-15 15:17 旁人怎会懂 阅读(257) 评论(0) 推荐(0) 编辑