04 2019 档案

摘要:两篇一起mark: 1 from: https://blog.csdn.net/ybdesire/article/details/6270328 2 from https://blog.csdn.net/u010182633/article/details/45937051 1 协方差矩阵定义 对于 阅读全文
posted @ 2019-04-30 08:33 凌波微步_Arborday 阅读(716) 评论(0) 推荐(0)
摘要:from : https://www.cnblogs.com/90zeng/p/Lagrange_duality.html 1.原始问题 假设是定义在上的连续可微函数(为什么要求连续可微呢,后面再说,这里不用多想),考虑约束最优化问题: 称为约束最优化问题的原始问题。 现在如果不考虑约束条件,原始问 阅读全文
posted @ 2019-04-29 08:27 凌波微步_Arborday 阅读(190) 评论(0) 推荐(0)
摘要:还是不太明白,先mark一下 https://blog.csdn.net/v_july_v/article/details/81410574 阅读全文
posted @ 2019-04-28 17:20 凌波微步_Arborday 阅读(125) 评论(0) 推荐(0)
摘要:还是不太明白bottle neck 和 transition layer具体实现方式,只get到是降维。。。 mark : https://blog.csdn.net/u014380165/article/details/75142664 论文:Densely Connected Convoluti 阅读全文
posted @ 2019-04-25 08:40 凌波微步_Arborday 阅读(410) 评论(0) 推荐(0)
摘要:妈蛋不让直接贴内容,那mark个地址吧: https://www.zhihu.com/question/56024942 第二个回答,图文并茂,直击要点。 阅读全文
posted @ 2019-04-25 08:04 凌波微步_Arborday 阅读(294) 评论(0) 推荐(0)
摘要:from : https://zhuanlan.zhihu.com/p/22447440 近年来,深度卷积神经网络(Deep Convolution Neural Network)在计算机视觉问题中被广泛使用,并在图像分类、目标检测等问题中表现出了优异的性能。Revisiting Deep Conv 阅读全文
posted @ 2019-04-25 07:41 凌波微步_Arborday 阅读(655) 评论(0) 推荐(0)
摘要:from : http://www.raincent.com/content-10-12066-1.html 一、标准化/归一化定义 归一化和标准化经常被搞混,程度还比较严重,非常干扰大家的理解。为了方便后续的讨论,必须先明确二者的定义。 归一化 就是将训练集中某一列数值特征(假设是第i列)的值缩放 阅读全文
posted @ 2019-04-24 22:36 凌波微步_Arborday 阅读(418) 评论(0) 推荐(0)
摘要:目录 前言 官方文档 环境搭建 编译链接 Demo 解释器 初始化 GIL Object 一切皆对象 从Python代码中获取Object C/C++与Object转换 函数调用 引用计数 参考资料 前言 最近项目中遇到需要用C++调用python代码的情况,在网上搜索后发现中文资料比较少。因此借此 阅读全文
posted @ 2019-04-24 17:41 凌波微步_Arborday 阅读(2901) 评论(0) 推荐(0)
摘要:from : https://caicai.science/2018/10/06/attention%E6%80%BB%E8%A7%88/ 一、Seq2Seq 模型 1. 简介 Sequence-to-sequence (seq2seq) 模型,顾名思义,其输入是一个序列,输出也是一个序列,例如输入 阅读全文
posted @ 2019-04-23 20:53 凌波微步_Arborday 阅读(3070) 评论(0) 推荐(0)
摘要:from: https://pengfoo.com/post/machine-learning/2017-04-11 GloVe(Global Vectors for Word Representation)是斯坦福大学发表的一种word embedding 方法,GloVe: Global Vec 阅读全文
posted @ 2019-04-23 14:49 凌波微步_Arborday 阅读(751) 评论(0) 推荐(0)
摘要:from: https://www.cnblogs.com/peghoty/p/3857839.html 另附一个比较好的介绍:https://zhuanlan.zhihu.com/p/26306795 word2vec 是 Google 于 2013 年开源推出的一个用于获取 word vecto 阅读全文
posted @ 2019-04-23 11:49 凌波微步_Arborday 阅读(175) 评论(0) 推荐(0)
摘要:mark~ from : https://www.jiqizhixin.com/articles/2018-06-05-3 fastText的起源 fastText是FAIR(Facebook AIResearch) 在2016年推出的一款文本分类与向量化工具。它的官网(fasttext.cc)上是 阅读全文
posted @ 2019-04-23 11:48 凌波微步_Arborday 阅读(368) 评论(0) 推荐(0)
摘要:好文 mark一下 转自 https://www.jiqizhixin.com/articles/2018-01-09-6 从最大似然估计开始,你需要打下的机器学习基石 从最大似然估计开始,你需要打下的机器学习基石 什么是参数? 在机器学习中,我们经常使用一个模型来描述生成观察数据的过程。例如,我们 阅读全文
posted @ 2019-04-22 21:43 凌波微步_Arborday 阅读(317) 评论(0) 推荐(0)
摘要:把各种熵的好文集中一下,希望面试少受点伤,哈哈哈 1. 条件熵 https://zhuanlan.zhihu.com/p/26551798 我们首先知道信息熵是考虑该随机变量的所有可能取值,即所有可能发生事件所带来的信息量的期望。公式如下: 我们的条件熵的定义是:定义为X给定条件下,Y的条件概率分布 阅读全文
posted @ 2019-04-18 00:01 凌波微步_Arborday 阅读(3051) 评论(0) 推荐(1)
摘要:几篇讲优化器的好文,mark一下 英文Optimizer overview http://ruder.io/optimizing-gradient-descent/index.html#adam Optimization for Deep Learning http://ruder.io/deep- 阅读全文
posted @ 2019-04-16 07:44 凌波微步_Arborday 阅读(210) 评论(0) 推荐(0)
摘要:好文mark 转自机器之心 :https://www.jiqizhixin.com/articles/2018-06-21-3 “损失函数”是机器学习优化中至关重要的一部分。L1、L2损失函数相信大多数人都早已不陌生。那你了解Huber损失、Log-Cosh损失、以及常用于计算预测区间的分位数损失么 阅读全文
posted @ 2019-04-14 21:32 凌波微步_Arborday 阅读(1340) 评论(0) 推荐(0)