摘要: 概率图模型 这篇文章主要想总结一下朴素贝叶斯、最大熵、隐马尔可夫和条件随机场这四个概率图模型之间的一些联系与区别。朴素贝叶斯假设条件独立性,在给定目标值 $y$ 时,$x$ 之间是相互独立的,对于序列来说,它不会去考虑单个位置之间的相互依赖。隐马尔可夫假设观测序列在连续相邻位置间的状态存在依赖,它的 阅读全文
posted @ 2021-12-14 14:02 Kayden_Cheung 阅读(57) 评论(0) 推荐(0) 编辑
摘要: 什么是内存池? 在上一篇 C++内存管理:new / delete 和 cookie 中谈到,频繁的调用 malloc 会影响运行效率以及产生额外的 cookie, 而内存池的思想是预先申请一大块内存,当有内存申请需求时,从内存池中取出一块内存分配给目标对象。 它的实现过程为: 预先申请 chunk 阅读全文
posted @ 2021-12-13 20:27 Kayden_Cheung 阅读(192) 评论(0) 推荐(0) 编辑
摘要: new 和 delete C++的内存申请和释放是通过 new 和 delete 实现的, 而new 和 delete 其实就是通过 malloc 和 free 实现的。 new 申请内存分为三个步骤: 调用 operator new 函数分配目标类型的内存大小,operator new 函数内部就 阅读全文
posted @ 2021-12-13 14:20 Kayden_Cheung 阅读(206) 评论(0) 推荐(0) 编辑
摘要: 代码就是侯捷老师的代码,包括了最基础的构造函数、拷贝构造函数和拷贝赋值函数。 String.h #pragma once #include<string.h> #ifndef STRING_H #define STRING_H class String { public: String(const 阅读全文
posted @ 2021-09-19 21:55 Kayden_Cheung 阅读(35) 评论(0) 推荐(0) 编辑
摘要: 进入虚拟环境后: conda install ipykernel conda install nb_conda 阅读全文
posted @ 2021-07-21 15:52 Kayden_Cheung 阅读(26) 评论(0) 推荐(0) 编辑
摘要: ① def encode_onehot(labels): classes = set(labels) classes_dict = {c: np.identity(len(classes))[i, :] for i, c in enumerate(classes)} labels_onehot = 阅读全文
posted @ 2021-03-08 18:51 Kayden_Cheung 阅读(182) 评论(0) 推荐(0) 编辑
摘要: GraphSAGE 之前所接触的都是直推式学习,也就是仅仅考虑了当前数据,直接计算出节点的embedding,一旦数据变更后,则需要重新训练。 而GraphSAGE则是一种归纳式学习,也就是说它的目标是训练得到权重矩阵的参数。 计算节点 \(v\) 第 \(k\) 层的 embedding 流程为: 阅读全文
posted @ 2021-03-07 20:11 Kayden_Cheung 阅读(102) 评论(0) 推荐(0) 编辑
摘要: 将Ubuntu默认的python2改为python3 首先删除原有的python连接文件: rm /usr/bin/python 然后建立指向python3.6的软连接: ln -s /usr/bin/python3.5 /usr/bin/python 之后把路径/usr/bin/加入环境变量PAT 阅读全文
posted @ 2021-01-14 17:15 Kayden_Cheung 阅读(54) 评论(0) 推荐(0) 编辑
摘要: 更换清华源的时候,这三个都需要加上 conda config --add channels https://mirrors.tuna.tsinghua.edu.cn/anaconda/pkgs/free/ conda config --add channels https://mirrors.tun 阅读全文
posted @ 2020-12-19 20:34 Kayden_Cheung 阅读(237) 评论(0) 推荐(0) 编辑
摘要: 转自怎么理解推荐系统中的NDCG? CG CG(cumulative gain,累计增益)可以用于评价基于打分/评分的个性推荐系统。假设我们推荐k个物品,这个推荐列表的CGk计算公式如下: \(CG_k=\sum_{i=1}^k \text{rel}_i\) \(rel_i\) 表示第 \(k\) 阅读全文
posted @ 2020-12-04 15:35 Kayden_Cheung 阅读(220) 评论(0) 推荐(0) 编辑
摘要: 以一张图片作为开始吧: 这里的输入数据是大小为(8×8)的彩色图片,其中每一个都称之为一个feature map,这里共有3个。所以如果是灰度图,则只有一个feature map。 进行卷积操作时,需要指定卷积核的大小,图中卷积核的大小为3,多出来的一维3不需要在代码中指定,它会自动扩充至图片的ch 阅读全文
posted @ 2020-12-03 22:38 Kayden_Cheung 阅读(995) 评论(0) 推荐(0) 编辑
摘要: 当然,这只是其中的一种映射。 阅读全文
posted @ 2020-11-11 20:12 Kayden_Cheung 阅读(300) 评论(0) 推荐(0) 编辑
摘要: 该论文提出了一个称为KBRD的框架,它是一个基于知识图谱的推荐对话系统。 首先需要做的就是知识图谱的实体链接,论文中使用到了DBpedia,将对话中出现的items以及non-item entities与DBpedia中的实体链接起来。通过知识图谱,我们也许可以发现这些non-items的内容可能与 阅读全文
posted @ 2020-10-30 20:51 Kayden_Cheung 阅读(221) 评论(0) 推荐(0) 编辑
摘要: 引入 数据下载:传送门 这个教程的任务目标是将输入的法文翻译成英文。因为翻译前后句子可能不等长,所以用之前的RNN、LSTM就不太合适,所以这里就是用的Encoder-Decoder结构。其结构如下图所示: 数据处理 所需要的库: from __future__ import unicode_lit 阅读全文
posted @ 2020-10-22 14:17 Kayden_Cheung 阅读(434) 评论(0) 推荐(0) 编辑
摘要: torch.cat的作用是对张量按行或列进行拼接。在使用的过程中我也碰到了一些需要注意的点。 import torch x = torch.rand((4,5)) print(x) tmp = torch.Tensor() for i in range(4): if i%2 == 0: tmp = 阅读全文
posted @ 2020-10-13 11:02 Kayden_Cheung 阅读(173) 评论(0) 推荐(0) 编辑
摘要: 花书第10.2.2节的计算循环神经网络的梯度看了好久,总算是把公式的推导给看懂了,记录一下过程。 首先,对于一个普通的RNN来说,其前向传播过程为: $$\textbf{a}^{(t)}=\textbf{b}+\textbf{Wh}^{t-1}+\textbf{Ux}^{(t)}$$ $$\text 阅读全文
posted @ 2020-10-11 14:48 Kayden_Cheung 阅读(260) 评论(0) 推荐(0) 编辑
摘要: 简介 本次作业所用到的数据为Twitter上的推文,训练数据会被打上正面或负面的标签,最终我们要对无标签的句子分类。 带标签的训练数据,中间的+++$+++只是分隔符,共200000条数据。 不带标签的训练数据,共1178614条数据。 测试数据,共200000条数据。 数据处理 读数据 impor 阅读全文
posted @ 2020-10-09 20:47 Kayden_Cheung 阅读(456) 评论(0) 推荐(0) 编辑
摘要: LSTM 参数 input_size:输入维数 hidden_size:输出维数 num_layers:LSTM层数,默认是1 bias:True 或者 False,决定是否使用bias, False则b_h=0. 默认为True batch_first:True 或者 False,因为nn.lst 阅读全文
posted @ 2020-10-09 16:31 Kayden_Cheung 阅读(1415) 评论(0) 推荐(0) 编辑
摘要: 在RNN模型的训练过程中,需要用到词嵌入,而torch.nn.Embedding就提供了这样的功能。我们只需要初始化torch.nn.Embedding(n,m),n是单词数,m就是词向量的维度。 一开始embedding是随机的,在训练的时候会自动更新。 举个简单的例子: word1和word2是 阅读全文
posted @ 2020-10-09 15:15 Kayden_Cheung 阅读(887) 评论(0) 推荐(0) 编辑
摘要: 简介 word2vec实现的功能是将词用$n$维的向量表示出来,即词向量。一般这个词向量的维度为100~300。 word2vec有两种训练模型: (1) CBOW:根据中心词$w(t)$周围的词来预测中心词 (2) Skip-gram:根据中心词$w(t)$来预测周围词 word2vec有两种加速 阅读全文
posted @ 2020-10-07 21:35 Kayden_Cheung 阅读(615) 评论(0) 推荐(0) 编辑
//目录