Processing math: 100%
会员
周边
众包
新闻
博问
闪存
赞助商
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
WritingLite
首页
订阅
管理
随笔 - 14
文章 - 0
评论 - 0
阅读 -
10252
2021年11月12日
Tensorflow遇到的问题
摘要: 问题1、自定义loss function,y_true shape多一个维度 def nce_loss(y_true, y_pred): y_true = tf.reshape(y_true, [-1]) y_true = tf.linalg.diag(y_true) ret = tf.keras.
阅读全文
posted @ 2021-11-12 10:04 hwYang
阅读(75)
评论(0)
推荐(0)
2021年8月16日
Page Rank 算法
摘要: 背景 总的来讲,对于一个特定的查询,搜索结果的排名取决于两组信息,关于网页的质量信息,和这个查询与每个网页的相关信息。PageRank算法就是一种衡量网页质量的方法。 核心思想(原理) 在互联网上,如果一个网页被很多其它网页所连接,说明它受到普遍的承认和信赖,那么它的排名就高。 算法细节 算法的思想
阅读全文
posted @ 2021-08-16 11:29 hwYang
阅读(365)
评论(0)
推荐(0)
2021年6月21日
逻辑回归梯度下降推导
摘要:
P
(
p
=
1
|
x
;
θ
)
=
h
θ
(
x
)
=
e
x
p
(
θ
T
x
)
1
+
e
x
p
(
θ
T
x
)
P
(
p
=
0
|
x
;
θ
)
=
1
−
h
θ
(
x
)
=
1
1
+
e
x
p
(
θ
T
x
)
\[ \be
阅读全文
posted @ 2021-06-21 11:15 hwYang
阅读(166)
评论(0)
推荐(0)
逻辑回归再理解
摘要: https://github.com/writinglite/a_journey_into_math_of_ml/tree/master/01_logistic_regression
阅读全文
posted @ 2021-06-21 11:11 hwYang
阅读(28)
评论(0)
推荐(0)
最大似然估计的再理解
摘要: 极大似然估计,通常用于推导损失函数或目标函数,即认为模型使样本似然(简单理解就是概率)值最大的模型就是我们想得到的模型。 如上图为例,X轴是样本值,Y轴是概率即f(x)。这是一个二分类任务,红色点是正例,绿色点是负例。根据最大似然估计,我们想要的模型f(x)应该在在红色点处的值越大越好,在绿色点的值
阅读全文
posted @ 2021-06-21 11:08 hwYang
阅读(150)
评论(0)
推荐(0)
2021年6月7日
DeepLearning中CRF计算原理
摘要: 主要内容来处:https://createmomo.github.io: CRF Layer on the Top of BiLSTM - 1 Outline and Introduction CRF Layer on the Top of BiLSTM - 2 CRF Layer (Emissio
阅读全文
posted @ 2021-06-07 21:13 hwYang
阅读(466)
评论(0)
推荐(0)
2021年6月4日
评价指标-精确率、召回率、ROC曲线
摘要: 当我们训练好一模型之后,如何判断模型的好坏呢,这就需要用到评价指标(evaluation metrics)。下面介绍一下在二分类任务中的一些评价指标。 真实-Positive(正方形左侧) 真实-Negative(正方形右侧) 预测-Positive(圆形内) TP(True Positive) F
阅读全文
posted @ 2021-06-04 16:35 hwYang
阅读(990)
评论(0)
推荐(0)
2021年6月2日
基于贝叶斯平均的新词发现算法
摘要: 这里对“热词”的定义是: 某一时间段内起点低,增长迅速 贝叶斯平均算法的计算公式是:
W
R
=
v
v
+
m
R
+
m
v
+
m
C
WR, 加权得分。 R,该词基础得分。 v,该词的词频。 m,平均词频数。 C, 所有词的平均基础得分。 R的计算公式: \[ R =
阅读全文
posted @ 2021-06-02 10:10 hwYang
阅读(403)
评论(0)
推荐(0)
2017年6月6日
统计学习方法概论
摘要: 统计学习的基本概念 学习的定义 如果一个系统能够通过执行某个过程改进它的性能,这就是学习。 监督学习的学习方法 从给定的、有限的、用于学习的训练数据集合出发,假设数据是独立同分布产生的;并且假设学习的模型属于某个函数集合,称为假设空间;应用某个评价准则,从假设空间中选取一个最优的模型,使它对已知训练
阅读全文
posted @ 2017-06-06 10:42 hwYang
阅读(356)
评论(0)
推荐(0)
2017年5月10日
多模字符串匹配算法-Aho–Corasick
摘要: 背景 在做实际工作中,最简单也最常用的一种自然语言处理方法就是关键词匹配,例如我们要对n条文本进行过滤,那本身是一个过滤词表的,通常进行过滤的代码如下 for (String document : documents) { for (String filterWord : filterWords)
阅读全文
posted @ 2017-05-10 16:04 hwYang
阅读(5664)
评论(0)
推荐(2)
下一页
我的标签
NLP
(3)
机器学习
(3)
算法
(2)
序列标注
(1)
统计学习方法
(1)
点击右上角即可分享