随笔分类 -  ML/DL

摘要:CBOW v.s. skip-gram CBOW 上下文预测中心词,出现次数少的词会被平滑,对出现频繁的词有更高的准确率 skip-gram 中心词预测上下文,训练次数比CBOW多,表示罕见词更好 例如给定上下文 yesterday was a really [...] day ,CBOW可能会输出 阅读全文
posted @ 2020-06-23 18:03 鱼与鱼 阅读(310) 评论(0) 推荐(0)
摘要:"HMM 前向后向算法理解与实现(python)" "HMM 维特比算法理解与实现(python)" 解码问题 给定观测序列 $O=O_1O_2...O_T$,模型 $\lambda (A,B,\pi)$,找到最可能的状态序列 $I^∗=\{i^∗_1,i^∗_2,...i^∗_T\}$ 近似算法 阅读全文
posted @ 2020-05-13 23:23 鱼与鱼 阅读(2965) 评论(0) 推荐(1)
摘要:"HMM 前向后向算法理解与实现(python)" "HMM 维特比算法理解与实现(python)" [TOC] 基本要素 状态 $N$个 状态序列 $S = s_1,s_2,...$ 观测序列 $O=O_1,O_2,...$ $\lambda(A,B,\pi)$ 状态转移概率 $A = \{a_{ 阅读全文
posted @ 2020-05-13 09:24 鱼与鱼 阅读(5428) 评论(0) 推荐(2)
摘要:在 "上一篇学习SVM中" 从最大间隔角度出发,详细学习了如何用拉格朗日乘数法求解约束问题,一步步构建SVM的目标函数,这次尝试从另一个角度学习SVM。 回顾监督学习要素 数据:($x_i,y_i$) 模型 $\hat{y_i} = f(x_i)$ 目标函数(损失函数+正则项) $l(y_i,\ha 阅读全文
posted @ 2020-04-26 23:25 鱼与鱼 阅读(178) 评论(0) 推荐(0)
摘要:SVM家族简史 故事要从20世纪50年代说起,1957年,一个叫做感知器的模型被提出, 1963年, Vapnik and Chervonenkis, 提出了最大间隔分类器,SVM诞生了。 1992年,Vapnik 将核方法用于SVM,使SVM可以处理线性不可分数据 1995年,Corts和Vapn 阅读全文
posted @ 2020-04-25 21:00 鱼与鱼 阅读(718) 评论(0) 推荐(1)
摘要:动手实现Transformer,所有代码基于tensorflow2.0,配合illustrated-transformer更香。 模型架构 Encoder+Decoder Encoder Decoder Attention Add&Norm FeedForward Embedding Positio 阅读全文
posted @ 2020-04-18 18:13 鱼与鱼 阅读(546) 评论(0) 推荐(0)