博客园 - wzd321
uuid:24b78886-0ed1-41c2-8670-e3f31dcf42c4;id=92766
2022-07-23T04:58:31Z
wzd321
https://www.cnblogs.com/wzdLY/
feed.cnblogs.com
https://www.cnblogs.com/wzdLY/p/16511793.html
内生变量和外生变量 - wzd321
作者:云落心 链接:https://www.zhihu.com/question/56223861/answer/160750437 来源:知乎 著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。 要讨论内生变量还是外生变量,首先要有系统的观点,其次是要有因果的观点。什么是内生变量
2022-07-23T04:59:00Z
2022-07-23T04:59:00Z
wzd321
https://www.cnblogs.com/wzdLY/
【摘要】作者:云落心 链接:https://www.zhihu.com/question/56223861/answer/160750437 来源:知乎 著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。 要讨论内生变量还是外生变量,首先要有系统的观点,其次是要有因果的观点。什么是内生变量 <a href="https://www.cnblogs.com/wzdLY/p/16511793.html" target="_blank">阅读全文</a>
https://www.cnblogs.com/wzdLY/p/10755214.html
500 问的数学基础 - wzd321
[TOC] 第一章 数学基础 1.1 标量、向量、矩阵、张量之间的联系 标量(scalar) 一个标量表示一个单独的数,它不同于线性代数中研究的其他大部分对象(通常是多个数的数组)。我们用斜体表示标量。标量通常被赋予小写的变量名称。 向量(vector) 一个向量表示一组有序排列的数。通过次序中的
2019-04-23T03:08:00Z
2019-04-23T03:08:00Z
wzd321
https://www.cnblogs.com/wzdLY/
【摘要】[TOC] 第一章 数学基础 1.1 标量、向量、矩阵、张量之间的联系 标量(scalar) 一个标量表示一个单独的数,它不同于线性代数中研究的其他大部分对象(通常是多个数的数组)。我们用斜体表示标量。标量通常被赋予小写的变量名称。 向量(vector) 一个向量表示一组有序排列的数。通过次序中的 <a href="https://www.cnblogs.com/wzdLY/p/10755214.html" target="_blank">阅读全文</a>
https://www.cnblogs.com/wzdLY/p/10224353.html
转载一份kaggle的特征工程:经纬度、特征构造、转化率 - wzd321
转载:https://www.toutiao.com/i6642477603657613831/ 1 如果训练/测试都来自同一时间线,那么就可以非常巧妙地使用特性。虽然这只是一个kaggle的案例,但可以利用这个优势。例如:在出租车出行持续时间挑战赛中,从训练数据中随机抽取测试数据。在这种情况下,可
2019-01-05T06:13:00Z
2019-01-05T06:13:00Z
wzd321
https://www.cnblogs.com/wzdLY/
【摘要】转载:https://www.toutiao.com/i6642477603657613831/ 1 如果训练/测试都来自同一时间线,那么就可以非常巧妙地使用特性。虽然这只是一个kaggle的案例,但可以利用这个优势。例如:在出租车出行持续时间挑战赛中,从训练数据中随机抽取测试数据。在这种情况下,可 <a href="https://www.cnblogs.com/wzdLY/p/10224353.html" target="_blank">阅读全文</a>
https://www.cnblogs.com/wzdLY/p/10172875.html
散度 - wzd321
散度(divergence)可用于表征空间各点矢量场发散的强弱程度,是矢量到标量的映射。 假设有矢量
2018-12-25T03:19:00Z
2018-12-25T03:19:00Z
wzd321
https://www.cnblogs.com/wzdLY/
【摘要】散度(divergence)可用于表征空间各点矢量场发散的强弱程度,是矢量到标量的映射。 假设有矢量 <a href="https://www.cnblogs.com/wzdLY/p/10172875.html" target="_blank">阅读全文</a>
https://www.cnblogs.com/wzdLY/p/10139316.html
在线学习在CTR上应用的综述 - wzd321
参考:https://mp.weixin.qq.com/s/p10_OVVmlcc1dGHNsYMQwA 在线学习只是一个机器学习的范式(paradigm),并不局限于特定的问题,模型或者算法。 架构 如图1所示,流式训练数据生成的环节还会继续保留,原有的流式训练数据生成拓扑后面会直接接一个流式模型
2018-12-18T11:50:00Z
2018-12-18T11:50:00Z
wzd321
https://www.cnblogs.com/wzdLY/
【摘要】参考:https://mp.weixin.qq.com/s/p10_OVVmlcc1dGHNsYMQwA 在线学习只是一个机器学习的范式(paradigm),并不局限于特定的问题,模型或者算法。 架构 如图1所示,流式训练数据生成的环节还会继续保留,原有的流式训练数据生成拓扑后面会直接接一个流式模型 <a href="https://www.cnblogs.com/wzdLY/p/10139316.html" target="_blank">阅读全文</a>
https://www.cnblogs.com/wzdLY/p/10135263.html
正则表达式 - wzd321
一.正则表达式概念 1.定义 正则表达式,又称规则表达式。(英语:Regular Expression,在代码中常简写为regex、regexp或RE),计算机科学的一个概念。正则表达式通常被用来检索、替换那些符合某个模式(规则)的文本。正则表达式(Regular Expression)是一种文本模
2018-12-18T01:40:00Z
2018-12-18T01:40:00Z
wzd321
https://www.cnblogs.com/wzdLY/
【摘要】一.正则表达式概念 1.定义 正则表达式,又称规则表达式。(英语:Regular Expression,在代码中常简写为regex、regexp或RE),计算机科学的一个概念。正则表达式通常被用来检索、替换那些符合某个模式(规则)的文本。正则表达式(Regular Expression)是一种文本模 <a href="https://www.cnblogs.com/wzdLY/p/10135263.html" target="_blank">阅读全文</a>
https://www.cnblogs.com/wzdLY/p/10113645.html
广告的计费方式 - wzd321
1、CPM CPM(Cost Per Mill-impression),即每千人印象成本,依据广告播放次数来计算广告收费。广告图形或文字在计算机上显示,每1000次为一收费单位,如一则Banner广告的单价是50/CPM,5000元的广告收入就可以获得100*1000次播放机会。CPM是现阶段常用的
2018-12-13T06:02:00Z
2018-12-13T06:02:00Z
wzd321
https://www.cnblogs.com/wzdLY/
【摘要】1、CPM CPM(Cost Per Mill-impression),即每千人印象成本,依据广告播放次数来计算广告收费。广告图形或文字在计算机上显示,每1000次为一收费单位,如一则Banner广告的单价是50/CPM,5000元的广告收入就可以获得100*1000次播放机会。CPM是现阶段常用的 <a href="https://www.cnblogs.com/wzdLY/p/10113645.html" target="_blank">阅读全文</a>
https://www.cnblogs.com/wzdLY/p/10111427.html
矩阵2范数与向量2范数的关系 - wzd321
向量2范数是对应元素平方和:矩阵2范数是:其中是矩阵的最大特征值. 除此之外,矩阵有一个F范数(Frobenius范数)倒是跟向量的2范数比较相似,是矩阵内所有元素平方和: 矩阵的2范数是向量二范数对应的诱导范数。给定某一种向量范数 ,它所对应的矩阵范数定义为: 左边的范数是矩阵范数,而右边分子分母
2018-12-12T14:25:00Z
2018-12-12T14:25:00Z
wzd321
https://www.cnblogs.com/wzdLY/
【摘要】向量2范数是对应元素平方和:矩阵2范数是:其中是矩阵的最大特征值. 除此之外,矩阵有一个F范数(Frobenius范数)倒是跟向量的2范数比较相似,是矩阵内所有元素平方和: 矩阵的2范数是向量二范数对应的诱导范数。给定某一种向量范数 ,它所对应的矩阵范数定义为: 左边的范数是矩阵范数,而右边分子分母 <a href="https://www.cnblogs.com/wzdLY/p/10111427.html" target="_blank">阅读全文</a>
https://www.cnblogs.com/wzdLY/p/10109275.html
text_CNN笔记 - wzd321
Text-CNN模型作为文本分类模型,通过验证实验以及业界的共识,在文本分类任务中,CNN模型已经能够取到比较好的结果,虽然在某些数据集上效果可能会比RNN稍差一点,但是CNN模型训练的效率更高。所以,一般认为CNN模型在文本分类任务中是兼具效率与质量的理想模型。针对海量的文本多分类数据,也可以尝试
2018-12-12T08:48:00Z
2018-12-12T08:48:00Z
wzd321
https://www.cnblogs.com/wzdLY/
【摘要】Text-CNN模型作为文本分类模型,通过验证实验以及业界的共识,在文本分类任务中,CNN模型已经能够取到比较好的结果,虽然在某些数据集上效果可能会比RNN稍差一点,但是CNN模型训练的效率更高。所以,一般认为CNN模型在文本分类任务中是兼具效率与质量的理想模型。针对海量的文本多分类数据,也可以尝试 <a href="https://www.cnblogs.com/wzdLY/p/10109275.html" target="_blank">阅读全文</a>
https://www.cnblogs.com/wzdLY/p/10108317.html
F1 - wzd321
Precision定义为预测正确的真正样本占所有被预测为正样本的比例,Recall定义为预测正确的真正样本占所有真正样本的比例,而F1值定义为Precision和Recall的调和平均值: 可以看到F1值会更接近P和R中较小的值,我们也可以自己设置Precision和Recall的重要性: >1的时
2018-12-12T06:48:00Z
2018-12-12T06:48:00Z
wzd321
https://www.cnblogs.com/wzdLY/
【摘要】Precision定义为预测正确的真正样本占所有被预测为正样本的比例,Recall定义为预测正确的真正样本占所有真正样本的比例,而F1值定义为Precision和Recall的调和平均值: 可以看到F1值会更接近P和R中较小的值,我们也可以自己设置Precision和Recall的重要性: >1的时 <a href="https://www.cnblogs.com/wzdLY/p/10108317.html" target="_blank">阅读全文</a>
https://www.cnblogs.com/wzdLY/p/10105772.html
随机梯度算法 - wzd321
转载:https://blog.csdn.net/kwame211/article/details/80364079 假设我们提供了这样的数据样本(样本值取自于y=3*x1+4*x2):x1 x2 y1 4 192 5 265 1 194 2 29x1和x2是特征,y是预测目标,我们需要以一条直线来
2018-12-11T14:33:00Z
2018-12-11T14:33:00Z
wzd321
https://www.cnblogs.com/wzdLY/
【摘要】转载:https://blog.csdn.net/kwame211/article/details/80364079 假设我们提供了这样的数据样本(样本值取自于y=3*x1+4*x2):x1 x2 y1 4 192 5 265 1 194 2 29x1和x2是特征,y是预测目标,我们需要以一条直线来 <a href="https://www.cnblogs.com/wzdLY/p/10105772.html" target="_blank">阅读全文</a>
https://www.cnblogs.com/wzdLY/p/10105264.html
无穷小 (大) 量的阶 - wzd321
2018-12-11T13:14:00Z
2018-12-11T13:14:00Z
wzd321
https://www.cnblogs.com/wzdLY/
【摘要】 <a href="https://www.cnblogs.com/wzdLY/p/10105264.html" target="_blank">阅读全文</a>
https://www.cnblogs.com/wzdLY/p/10104592.html
优化算法概括 - wzd321
什么是优化算法? 优化算法的功能,是通过改善训练方式,来最小化(或最大化)损失函数E(x)。模型内部有些参数,是用来计算测试集中目标值Y的真实值和预测值的偏差程度的,基于这些参数,就形成了损失函数E(x)。比如说,权重(W)和偏差(b)就是这样的内部参数,一般用于计算输出值,在训练神经网络模型时起到
2018-12-11T11:50:00Z
2018-12-11T11:50:00Z
wzd321
https://www.cnblogs.com/wzdLY/
【摘要】什么是优化算法? 优化算法的功能,是通过改善训练方式,来最小化(或最大化)损失函数E(x)。模型内部有些参数,是用来计算测试集中目标值Y的真实值和预测值的偏差程度的,基于这些参数,就形成了损失函数E(x)。比如说,权重(W)和偏差(b)就是这样的内部参数,一般用于计算输出值,在训练神经网络模型时起到 <a href="https://www.cnblogs.com/wzdLY/p/10104592.html" target="_blank">阅读全文</a>
https://www.cnblogs.com/wzdLY/p/10097113.html
长短记忆神经网络LSTM - wzd321
转载: https://www.jianshu.com/p/dcec3f07d3b5 https://blog.csdn.net/dream_catcher_10/article/details/48522339 重要:https://blog.csdn.net/roslei/article/det
2018-12-10T08:13:00Z
2018-12-10T08:13:00Z
wzd321
https://www.cnblogs.com/wzdLY/
【摘要】转载: https://www.jianshu.com/p/dcec3f07d3b5 https://blog.csdn.net/dream_catcher_10/article/details/48522339 重要:https://blog.csdn.net/roslei/article/det <a href="https://www.cnblogs.com/wzdLY/p/10097113.html" target="_blank">阅读全文</a>
https://www.cnblogs.com/wzdLY/p/10095319.html
word embeddding和keras中的embedding - wzd321
训练好的词向量模型被保存下来,该模型的本质就是一个m*n的矩阵,m代表训练语料中词的个数,n代表训练时我们设定的词向量维度。当我们训练好模型后再次调用时,就可以从该模型中直接获取到对应词的词向量。 通过上面我们可以拿到每个词的词向量,但是我们任务处理时一般是对句子或文本进行操作。当我们拿到一个词向量
2018-12-10T03:04:00Z
2018-12-10T03:04:00Z
wzd321
https://www.cnblogs.com/wzdLY/
【摘要】训练好的词向量模型被保存下来,该模型的本质就是一个m*n的矩阵,m代表训练语料中词的个数,n代表训练时我们设定的词向量维度。当我们训练好模型后再次调用时,就可以从该模型中直接获取到对应词的词向量。 通过上面我们可以拿到每个词的词向量,但是我们任务处理时一般是对句子或文本进行操作。当我们拿到一个词向量 <a href="https://www.cnblogs.com/wzdLY/p/10095319.html" target="_blank">阅读全文</a>
https://www.cnblogs.com/wzdLY/p/10094730.html
The perception and large margin classifiers - wzd321
假设样例按照到来的先后顺序依次定义为。为样本特征,为类别标签。任务是到来一个样例,给出其类别结果的预测值,之后我们会看到真实值,然后根据真实值来重新调整模型参数,整个过程是重复迭代的过程,直到所有的样例完成。这么看来,我们也可以将原来用于批量学习的样例拿来作为在线学习的样例。在在线学习中,我们主要关
2018-12-10T01:08:00Z
2018-12-10T01:08:00Z
wzd321
https://www.cnblogs.com/wzdLY/
【摘要】假设样例按照到来的先后顺序依次定义为。为样本特征,为类别标签。任务是到来一个样例,给出其类别结果的预测值,之后我们会看到真实值,然后根据真实值来重新调整模型参数,整个过程是重复迭代的过程,直到所有的样例完成。这么看来,我们也可以将原来用于批量学习的样例拿来作为在线学习的样例。在在线学习中,我们主要关 <a href="https://www.cnblogs.com/wzdLY/p/10094730.html" target="_blank">阅读全文</a>
https://www.cnblogs.com/wzdLY/p/10093537.html
深度森林DeepForest - wzd321
级联森林(Cascade Forest) 级联森林结构的图示。级联的每个级别包括两个随机森林(蓝色字体标出)和两个完全随机树木森林(黑色)。 假设有三个类要预测,因此,每个森林将输出三维类向量,然后将其连接以重新表示原始输入。注意,要将前一级的特征和这一级的特征连接在一起——在最后会有一个例子,到时
2018-12-09T13:48:00Z
2018-12-09T13:48:00Z
wzd321
https://www.cnblogs.com/wzdLY/
【摘要】级联森林(Cascade Forest) 级联森林结构的图示。级联的每个级别包括两个随机森林(蓝色字体标出)和两个完全随机树木森林(黑色)。 假设有三个类要预测,因此,每个森林将输出三维类向量,然后将其连接以重新表示原始输入。注意,要将前一级的特征和这一级的特征连接在一起——在最后会有一个例子,到时 <a href="https://www.cnblogs.com/wzdLY/p/10093537.html" target="_blank">阅读全文</a>
https://www.cnblogs.com/wzdLY/p/10092883.html
随机森林RandomForest - wzd321
ID3,C4.5决策树的生成: 输入:训练集D,特征集A,阈值eps, 输出:决策树T CART决策树的生成: 这里只简单介绍下CART与ID3和C4.5的区别
2018-12-09T12:00:00Z
2018-12-09T12:00:00Z
wzd321
https://www.cnblogs.com/wzdLY/
【摘要】ID3,C4.5决策树的生成: 输入:训练集D,特征集A,阈值eps, 输出:决策树T CART决策树的生成: 这里只简单介绍下CART与ID3和C4.5的区别 <a href="https://www.cnblogs.com/wzdLY/p/10092883.html" target="_blank">阅读全文</a>
https://www.cnblogs.com/wzdLY/p/10091900.html
Bagging和Boosting 概念及区别 - wzd321
转载:http://www.cnblogs.com/liuwu265/p/4690486.html Bagging和Boosting都是将已有的分类或回归算法通过一定方式组合起来,形成一个性能更加强大的分类器,更准确的说这是一种分类算法的组装方法。即将弱分类器组装成强分类器的方法。 1、Baggin
2018-12-09T08:32:00Z
2018-12-09T08:32:00Z
wzd321
https://www.cnblogs.com/wzdLY/
【摘要】转载:http://www.cnblogs.com/liuwu265/p/4690486.html Bagging和Boosting都是将已有的分类或回归算法通过一定方式组合起来,形成一个性能更加强大的分类器,更准确的说这是一种分类算法的组装方法。即将弱分类器组装成强分类器的方法。 1、Baggin <a href="https://www.cnblogs.com/wzdLY/p/10091900.html" target="_blank">阅读全文</a>
https://www.cnblogs.com/wzdLY/p/10080232.html
有价值的异常值的一种处理方式 - wzd321
2018-12-06T15:01:00Z
2018-12-06T15:01:00Z
wzd321
https://www.cnblogs.com/wzdLY/
【摘要】 <a href="https://www.cnblogs.com/wzdLY/p/10080232.html" target="_blank">阅读全文</a>