随笔分类 - ML/DL
摘要:CBOW v.s. skip-gram CBOW 上下文预测中心词,出现次数少的词会被平滑,对出现频繁的词有更高的准确率 skip-gram 中心词预测上下文,训练次数比CBOW多,表示罕见词更好 例如给定上下文 yesterday was a really [...] day ,CBOW可能会输出
阅读全文
摘要:"HMM 前向后向算法理解与实现(python)" "HMM 维特比算法理解与实现(python)" 解码问题 给定观测序列 $O=O_1O_2...O_T$,模型 $\lambda (A,B,\pi)$,找到最可能的状态序列 $I^∗=\{i^∗_1,i^∗_2,...i^∗_T\}$ 近似算法
阅读全文
摘要:"HMM 前向后向算法理解与实现(python)" "HMM 维特比算法理解与实现(python)" [TOC] 基本要素 状态 $N$个 状态序列 $S = s_1,s_2,...$ 观测序列 $O=O_1,O_2,...$ $\lambda(A,B,\pi)$ 状态转移概率 $A = \{a_{
阅读全文
摘要:在 "上一篇学习SVM中" 从最大间隔角度出发,详细学习了如何用拉格朗日乘数法求解约束问题,一步步构建SVM的目标函数,这次尝试从另一个角度学习SVM。 回顾监督学习要素 数据:($x_i,y_i$) 模型 $\hat{y_i} = f(x_i)$ 目标函数(损失函数+正则项) $l(y_i,\ha
阅读全文
摘要:SVM家族简史 故事要从20世纪50年代说起,1957年,一个叫做感知器的模型被提出, 1963年, Vapnik and Chervonenkis, 提出了最大间隔分类器,SVM诞生了。 1992年,Vapnik 将核方法用于SVM,使SVM可以处理线性不可分数据 1995年,Corts和Vapn
阅读全文
摘要:动手实现Transformer,所有代码基于tensorflow2.0,配合illustrated-transformer更香。 模型架构 Encoder+Decoder Encoder Decoder Attention Add&Norm FeedForward Embedding Positio
阅读全文

浙公网安备 33010602011771号