会员
周边
新闻
博问
闪存
众包
赞助商
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
筷点雪糕侠
博客园
首页
新随笔
联系
订阅
管理
上一页
1
···
7
8
9
10
11
12
13
下一页
2022年1月12日
模型评估-留出法
摘要: 1.留出法 2.python代码演示 点击查看代码 from sklearn import datasets # 自带数据集 from sklearn.model_selection import train_test_split # 数据集划分 from sklearn.preprocessing
阅读全文
posted @ 2022-01-12 23:21 筷点雪糕侠
阅读(271)
评论(0)
推荐(0)
2022年1月11日
Softmax回归
摘要: 1.多分类问题 \(y=argmax_{c=1}^{C}\ f_c(x;w_c)\) \(f_c(x;w_c)=w_c^T x+b_c,\ c\in \{1,...,C\}\) 学习准则 \(转换为条件概率建模\) \(p_{\theta}(y=c|x)\) 模型问题 \(已知 f_c(x;w_c)
阅读全文
posted @ 2022-01-11 08:35 筷点雪糕侠
阅读(61)
评论(0)
推荐(0)
2022年1月9日
线性分类器
摘要: 1.种类 感知器 Logistic回归 Softmax回归 交叉熵和对数似然 支持向量机 Softmax回归是多分类,其他都是二分类 #2.线性回归模型 \(f(x;w,b)=w^Tx +b ,y\in R\) #3.线性分类模型 $g(f(x;w))=\begin{cases} 1 & if\ f
阅读全文
posted @ 2022-01-09 22:19 筷点雪糕侠
阅读(72)
评论(0)
推荐(0)
2022年1月8日
计算图与自动微分
摘要: 1.自动微分概念 自动微分是利用链式法则来自动计算的一个复合函数的梯度 2.计算图 3.案例 \(f(x,w,b)=\frac{1}{e^{-wx+b}+1}\) 计算步骤 \(\frac{\partial f(x;w,b)}{\partial w}=\frac{\partial f(x;w,b)}
阅读全文
posted @ 2022-01-08 09:54 筷点雪糕侠
阅读(386)
评论(0)
推荐(0)
2022年1月5日
采样-MH采样
摘要: https://www.bilibili.com/video/BV17D4y1o7J2 wiki https://en.wikipedia.org/wiki/Metropolis%E2%80%93Hastings_algorithm 知乎-介绍了为什么pdf(loc=x_start)的好处 http
阅读全文
posted @ 2022-01-05 23:03 筷点雪糕侠
阅读(515)
评论(0)
推荐(0)
通用近似定理
摘要: 在神经网络学习中,个人认为有两块十分重要的理论知识对理解神经网络的工作由重要的意义,一个是许志钦老师讲解的F-principle,阐述了为什么神经网络不会过拟合,另外一个就是通用近似定理,解释了为什么神经网络不需要知道问题的目标函数就可以拟合 B站视频讲解 www.bilibili.com/vide
阅读全文
posted @ 2022-01-05 21:34 筷点雪糕侠
阅读(1619)
评论(0)
推荐(0)
2022年1月4日
前馈神经网络
摘要: 1.神经网络 神经网络最早是作为一种主要的连接主义模型。 20世纪80年代后期,最流行的一种连接主义模型是分布式并行处理(Parallel Distributed Processing,PDP)网络,其有3个主要特性: 1)信息表示是分布式的(非局部的); 2)记忆和知识是存储在单元之间的连接上;
阅读全文
posted @ 2022-01-04 08:31 筷点雪糕侠
阅读(874)
评论(0)
推荐(0)
神经元和激活函数
摘要: 教材 https://www.bilibili.com/video/BV13b4y1177W 符号 含义 \(d\) 维数 \(b\) 偏置项 1.神经元模型 \(z=\sum_{i=1}^{d}w_ix_i +b = w^T x +b\) 2.激活函数 ##性质 ###连续并可导(允许少数点上不可
阅读全文
posted @ 2022-01-04 08:16 筷点雪糕侠
阅读(427)
评论(0)
推荐(0)
2022年1月3日
采样-MCMC
摘要: 材料 https://www.bilibili.com/video/BV17D4y1o7J2 1.随机抽样问题 \(假设已知随机变量X的概率密度函数f(x),求X^2的期望?\) \(可以通过公式E(g(X))=\int_{-\infty}{+\infty}f(x)g(x)dx,令g(X)=X^2即
阅读全文
posted @ 2022-01-03 21:16 筷点雪糕侠
阅读(155)
评论(0)
推荐(0)
2022年1月2日
条件概率和贝叶斯公式
摘要: 条件概率(Conditional Probability) \(对于离散随机向量(X,Y ),已知X = x的条件下,随机变量Y = y的条件概率为:\) \(p(y|x)=P(Y=y|X=x)=\frac{p(x,y)}{p(x)}\) #贝叶斯公式 \(两个条件概率p(y|x)和p(x|y)之间
阅读全文
posted @ 2022-01-02 18:20 筷点雪糕侠
阅读(347)
评论(0)
推荐(0)
上一页
1
···
7
8
9
10
11
12
13
下一页
公告