09 2021 档案

摘要:生成网络的优化目标 the -logD alternative 称生成器的目标函数: \(\mathop{min}_{\theta } \mathbb{E}_{\boldsymbol z \sim p(\boldsymbol z)}\left [ log(1 - D \left (G (\bolds 阅读全文

posted @ 2021-09-25 21:38 foghorn 阅读(849) 评论(0) 推荐(0) |

摘要:python中的yield关键字 阅读全文

posted @ 2021-09-21 20:38 foghorn 阅读(21) 评论(0) 推荐(0) |

摘要:生成式模型的作用 密度估计 给定一组数据$D=\left { x^{n} \right }^{N}{n=1}$,假设它们都是独立地从相同的概率密度函数为$p{r}(x)$的未知分布中产生的。密度估计是根据数据集$D$来估计其概率密度函数$p_{\theta}(x)$。 在机器学习中,密度估计是一类无 阅读全文

posted @ 2021-09-17 21:54 foghorn 阅读(564) 评论(0) 推荐(0) |

摘要:当我们的模型训练好之后,需要将其参数(或整个模型)保存起来以便日后直接使用。pytorch提供了两种方法帮助我们快速、方便地保存训练好的模型 步骤 训练模型 保存模型 加载模型 训练模型 我们以二分类问题为例,训练一个神经网络,代码如下: import torch import torch.nn.f 阅读全文

posted @ 2021-09-13 21:43 foghorn 阅读(351) 评论(0) 推荐(0) |

摘要:当我们单独使用nn.Softmax()函数时,会显示上述警告,原因是softmax()函数已经被弃用了,虽然程序还是可以运行成功,但是这个做法不被pytorch所赞成。这个写法在早期的pytorch版本是没有警告的,现在因为其他考虑,要加上有指明dim参数。 例如: m = nn.Softmax(d 阅读全文

posted @ 2021-09-13 20:58 foghorn 阅读(537) 评论(0) 推荐(0) |

摘要:LogSoftmax(dim=None) 对n维输入张量做softmax操作并取对数。 \(LogSoftmax(x_{i})=log(\frac{exp(x_{i})}{\sum_{j}exp(x_{j})})\) shape input(*): *代表任意的维度 output(*): 和输入维度 阅读全文

posted @ 2021-09-13 16:03 foghorn 阅读(183) 评论(0) 推荐(0) |

摘要:堆叠自编码器 对于很多数据来说,仅使用两层神经网络的自编码器结构还不足以获取一种好的数据表示,为了获取更好的数据表示,我们可以使用更深层的神经网络。深层神经网络作为自编码器提取的数据表示一般会更加抽象,能够更好地捕捉到数据的语义信息。在实践中经常使用逐层堆叠的方式来训练一个深层的自编码器,称为堆叠自 阅读全文

posted @ 2021-09-11 18:13 foghorn 阅读(2526) 评论(3) 推荐(0) |

摘要:1 tensor.clone() 返回原tensor的拷贝,返回的新的tensor和原来的tensor具有同样的大小和数据类型 情况一: 若原tensor的requires_grad = True,clone()返回的是中间节点,梯度会流向原tensor,即返回的tensor的梯度会叠加到原来的te 阅读全文

posted @ 2021-09-10 17:08 foghorn 阅读(657) 评论(0) 推荐(1) |

摘要:LabelEncoder和OneHotEncoder的区别 下面是一个使用 Python sci-kit 包中 LableEncoder 和 OneHotEncoder 的具体例子: 可以看出,LabelEncoder会将object类型的数据按顺序编码,如0,1,2,3。而OneHotEncode 阅读全文

posted @ 2021-09-09 22:54 foghorn 阅读(264) 评论(0) 推荐(0) |

摘要:决策函数 监督学习的目标是学习到一个模型,通过这个模型对给定的输入,得到一个特定的输出,从而预测该数据的类别。这个模型对应的函数一般是$Y = f(X)$或者$P(Y|X)$。对于决策函数$Y = f(X)$类型,一般需要设置一个阈值用于判断属于哪个类别;对于条件概率分布$P(Y|X)$,只需要选取 阅读全文

posted @ 2021-09-08 22:49 foghorn 阅读(165) 评论(0) 推荐(0) |

摘要:Thomas N.Kipf等人于2017年发表了一篇题为《SEMI_SUPERVISED CLASSIFICATION WITH GRAPH CONVOLUTIONAL NETWORKS》的论文,提出了一种直接在图上进行卷积操作的算法,在引文网络和知识图谱的数据集中取得了state-of-the-a 阅读全文

posted @ 2021-09-08 21:37 foghorn 阅读(12780) 评论(0) 推荐(0) |

摘要:快速排序 #include <iostream> using namespace std; void Print(int arr[], int n) { for (int i = 0; i < n; ++i) { cout << arr[i] << ' '; } cout << endl; } in 阅读全文

posted @ 2021-09-03 10:10 foghorn 阅读(42) 评论(0) 推荐(0) |

摘要:面向行的输入:getline() getline()函数读取整行,它使用通过回车键输入的换行符来确定输入结尾。要调用这种方法,可以使用cin.getline()。该函数有两个参数。第一个参数是用来存储输入行的数组的名称,第二个参数时要读取的字符数。如果这个参数为20,则函数最对读取19个字符,余下的 阅读全文

posted @ 2021-09-01 20:51 foghorn 阅读(192) 评论(0) 推荐(0) |

博客园  ©  2004-2025
浙公网安备 33010602011771号 浙ICP备2021040463号-3