上一页 1 2 3 4 5 6 7 ··· 56 下一页
摘要: 区间筛质数模板题 #include <bits/stdc++.h> #define inf 2333333333333333 #define N 1000010 #define p(a) putchar(a) #define For(i,a,b) for(long long i=a;i<=b;++i 阅读全文
posted @ 2021-01-29 17:09 WeiAR 阅读(40) 评论(0) 推荐(0) 编辑
摘要: https://vjudge.net/problem/UVA-11426 参考这个博客 https://www.cnblogs.com/war1111/p/7641546.html 修改的地方为: (n/k-1)*(n/k)/2 #include <bits/stdc++.h> #define in 阅读全文
posted @ 2021-01-29 16:04 WeiAR 阅读(45) 评论(0) 推荐(0) 编辑
摘要: 吉布斯采样适用于条件分布比边缘分布更容易采样的多变量分布。假设我们需要从联合分布 中抽取的个样本。记第个样本为。吉布斯采样的过程则为: 确定初始值。 假设已得到样本,记下一个样本为。于是可将其看作一个向量,对其中某一分量,可通过在其他分量已知的条件下该分量的概率分布来抽取该分量。对于此条件概率,我们 阅读全文
posted @ 2021-01-03 10:53 WeiAR 阅读(138) 评论(0) 推荐(0) 编辑
摘要: 参考博客:https://www.cnblogs.com/yang901112/p/11621568.html 先估计p(z|d),p(w|z) 根据它们可以求得p(z|d,w) 根据p(z|d,w)求p(z|d),p(w|z)似然函数期望的最大值,得到p(z|d),p(w|z) 回到第二步 阅读全文
posted @ 2021-01-03 10:13 WeiAR 阅读(183) 评论(0) 推荐(0) 编辑
摘要: 先估计概率分布 根据概率分布,确定当前数据的类别 根据现有数据去更新分布 重复第2步,直到收敛 阅读全文
posted @ 2021-01-03 00:09 WeiAR 阅读(326) 评论(0) 推荐(0) 编辑
摘要: 它是topic models的一种方法,这一堆docs是这个topic,那一堆docs是另一个topic,同一个topic的docs大概率含有与这个topic相关的词,比如这个topic是动物,那么这些docs很可能出现猫猫狗狗。 步骤: 词项归一化 生成词项—文本矩阵W 对W做SVD分解、 X矩阵 阅读全文
posted @ 2021-01-02 23:19 WeiAR 阅读(231) 评论(0) 推荐(0) 编辑
摘要: 有核心点,边缘点,局外点 核心点半径r范围内至少有k个点(包括自己) 边缘点不是核心点,但是它至少在某个核心点的范围内 其他点都是局外点 阅读全文
posted @ 2021-01-01 17:05 WeiAR 阅读(212) 评论(0) 推荐(0) 编辑
摘要: 在n个数据点中选择最近的两个,并把它们合成一个 回到第一步,直到只剩1个数据点 阅读全文
posted @ 2021-01-01 15:16 WeiAR 阅读(52) 评论(0) 推荐(0) 编辑
摘要: 选择k个n维base向量,权重随机初始化,这样就有了k个类 对每个数据点「n维向量」,O(kn)算到k个base向量的距离,把当前点归到最近的一类 把第i类对应的base向量更新为第i类所有点的mean 重复第一步,直到收敛 阅读全文
posted @ 2021-01-01 11:08 WeiAR 阅读(70) 评论(0) 推荐(0) 编辑
摘要: 网格搜索,就是假设有n个超参数,每个超参数有m个候选值,复杂度就是O() 随机搜索,n个参数组成n维空间,先随机一个向量x,在以x为球心的超球面上随机选一个点,如果这个点比x更优,就替换掉x 阅读全文
posted @ 2020-12-30 18:19 WeiAR 阅读(181) 评论(0) 推荐(0) 编辑
上一页 1 2 3 4 5 6 7 ··· 56 下一页