会员
周边
新闻
博问
闪存
众包
赞助商
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
筷点雪糕侠
博客园
首页
新随笔
联系
订阅
管理
2022年9月16日
pytorch 和 tensorflow的 upsampling 互通代码
摘要: pytorch 实现上采样 点击查看代码 import numpy as np import torch.nn.functional as F import torch from torch import nn input = torch.arange(0, 12, dtype=torch.floa
阅读全文
posted @ 2022-09-16 22:24 筷点雪糕侠
阅读(152)
评论(0)
推荐(0)
2022年8月18日
完整的TadGAN 环境列表
摘要: 安装包版本 点击查看代码 完整的TadGan环境列表 (orion) C:\Users\User>pip list WARNING: Ignoring invalid distribution -ensorflow-gpu (c:\users\user\appdata\roaming\python\
阅读全文
posted @ 2022-08-18 22:57 筷点雪糕侠
阅读(189)
评论(0)
推荐(0)
2022年5月29日
从n元文法到神经语言模型
摘要: 资料来源 https://www.bilibili.com/video/BV11g4y1i7MW 80年代的n元语法 隐马尔科夫模型 SVM MRF CRF 等等 提纲 1.n元文法 2.神经语言模型 3.问题思考 历史 后面词的出现受前面词的影响,改进为条件概率,数据量太大 改进,当前词只和前面n
阅读全文
posted @ 2022-05-29 21:08 筷点雪糕侠
阅读(78)
评论(0)
推荐(0)
2022年5月22日
VAE-变分推断
摘要: 1.推荐材料 1.PRML 第十章节 变分推断 2.B站 白板推导 这部分讲解的很详细 https://www.bilibili.com/video/BV1aE411o7qd?p=70 https://www.bilibili.com/video/BV1aE411o7qd?p=71 https://
阅读全文
posted @ 2022-05-22 08:37 筷点雪糕侠
阅读(528)
评论(0)
推荐(0)
2022年5月16日
CNN-批归一化 BN batch normalization
摘要: 1.批归一化的作用 参看权值初始化那篇的内容,批归一化的主要意图和权值初始化是一样的,是要解决梯度的前向传播和反向传播过程中,梯度弥散,梯度消失的问题 2.批归一化的流程 这里注意一点,BN层一般放在激活层前面 3.算法流程 算法比较简单,解决问题的主要宗旨和权重初始化一样,尽量能勾勒出一个0均值,
阅读全文
posted @ 2022-05-16 21:01 筷点雪糕侠
阅读(180)
评论(0)
推荐(0)
CNN-权重参数初始化
摘要: 原地址 https://www.bilibili.com/video/BV1ba411m72B 1.为什么需要对权重初始化精心设计 1.容易出现梯度消失(梯度特别的接近0)和梯度爆炸(梯度特别的大)的情况,导致大部分反向传播得到的梯度不起作用或者起反作用 2.设计思路 神经网络的每层的数据的传送是要
阅读全文
posted @ 2022-05-16 09:03 筷点雪糕侠
阅读(759)
评论(0)
推荐(0)
2022年5月15日
CNN-计算过程
摘要: 材料准备 网络找了很多关于卷积神经网络的资料,综合来看,挑了一些比较有质量的材料汇总如下 1.鲁鹏老师的计算机视觉与深度学习 https://www.bilibili.com/video/BV1V54y1B7K3 2.邱锡鹏老师的蒲公英书 3.PRML关于卷积神经网络,不变性的章节(提供了一些不变性
阅读全文
posted @ 2022-05-15 23:14 筷点雪糕侠
阅读(368)
评论(0)
推荐(0)
2022年5月8日
常见激活函数,损失函数及其导数
摘要: 1.sigmoid函数 2.softmax函数 及其导数 3.tanh函数及其导数 3.MSE均方差损失函数及其导数 4.交叉熵损失函数及其导数
阅读全文
posted @ 2022-05-08 22:39 筷点雪糕侠
阅读(125)
评论(0)
推荐(0)
2022年5月3日
GBDT
摘要: #1.GBDT算法流程 \(设有训练集:Data=\{(x_1,y_1),(x_2,y_2),...,(x_N,y_N)\},y_i\in \{+1,-1\}\) 初始化弱学习器 一般用所有训练样本的标签值的均值 \(f_0(x)=argmin_c\sum\limits_{i=1}^{N}L(y_i
阅读全文
posted @ 2022-05-03 21:39 筷点雪糕侠
阅读(209)
评论(0)
推荐(0)
Adaboost
摘要: 概述 Adaboost的思想是将关注点放在被错误分类的样本上,减小上一轮被正确分类的样本权值 Adaboost采用加权投票的方法,分类误差小的弱分类器的权重大,而分类误差大的弱分类器的权重小 算法流程 1.\(假设输入训练数据为\) \(T=\{(x_1,y_1),(x_2,y_2),...,(x_
阅读全文
posted @ 2022-05-03 16:21 筷点雪糕侠
阅读(186)
评论(0)
推荐(0)
下一页
公告