随笔分类 -  Data Mining & ML

1 2 3 4 下一页

李宏毅meta learning笔记
摘要:学习如何学习 其实就是学习模型本身,模型的超参数 定义一个function,输入是一堆训练任务,输出是一个模型,这个和传统的机器学习没有本质不同 所以也是分成三步, 定义学什么,和相应的学习模型,meta learning本身也是有meta的。。。。。。 定义loss函数 用优化算法求解,但是这个L 阅读全文

posted @ 2023-05-05 10:41 fxjwind 阅读(35) 评论(0) 推荐(0) 编辑

DeepDB: Learn from Data, not from Queries! (2020,PVLDB)
摘要:主导的学习组件,是query-based,workload-driven,以一堆有代表性的queryset去实际运行,产生训练集。 The predominant「占主导的」 approach for learned DBMS components is that they capture the 阅读全文

posted @ 2021-03-11 14:19 fxjwind 阅读(472) 评论(0) 推荐(0) 编辑

笔记 - DBSherlock: A Performance Diagnostic Tool for Transactional Databases
摘要:OLTP系统的问题很难排查和定位,这就是为什么要花那么多钱去请DBA 因为TP系统的请求很多都是毫秒级别,而且同时有大量的并发,所以由于资源,或随机的原因导致的问题,很难去定位根因 哪怕数据库系统尤其是商业数据库系统,已经采集了上千维的对系统和数据库的监控指标,但是仍然很难提高有效的root cau 阅读全文

posted @ 2019-07-17 17:47 fxjwind 阅读(680) 评论(0) 推荐(0) 编辑

Reinforcement Learning
摘要:https://www.bilibili.com/video/av9770302/?p=24 https://www.bilibili.com/video/av24724071/?p=3 https://zhuanlan.zhihu.com/p/25239682 强化学习概览 分为几个要素, 首先我 阅读全文

posted @ 2018-08-21 16:34 fxjwind 阅读(8675) 评论(0) 推荐(1) 编辑

线性代数
摘要:https://www.bilibili.com/video/av22727915/?p=1 线性代数这门课主要描述这样的问题, 如何解多元一次方程组,即一个线性方程式的系统 解这个系统,就是要回答下面的问题,有没有解,多少解,怎么求解 为什么要研究一次线性方程组,因为他等价于线性系统,而线性系统是 阅读全文

posted @ 2018-07-25 15:50 fxjwind 阅读(5006) 评论(0) 推荐(0) 编辑

Improved GAN
摘要:https://www.bilibili.com/video/av9770302/?p=16 从之前讲的basic gan延伸到unified framework,到WGAN 再到通过WGAN进行Generation和Transformation 复习一下GAN, 首先我们有一个目标,target分 阅读全文

posted @ 2018-07-20 10:54 fxjwind 阅读(2019) 评论(0) 推荐(0) 编辑

GAN (Generative Adversarial Network)
摘要:https://www.bilibili.com/video/av9770302/?p=15 前面说了auto-encoder,VAE可以用于生成 VAE的问题, AE的训练是让输入输出尽可能的接近,所以生成出来图片只是在模仿训练集,而无法生成他完全没有见过的,或新的图片 由于VAE并没有真正的理解 阅读全文

posted @ 2018-07-06 22:10 fxjwind 阅读(15211) 评论(1) 推荐(1) 编辑

Scaled Exponential Linear Unit
摘要:https://www.bilibili.com/video/av9770302/?p=11 Relu Leaky Relu Parametric Relu就是把leaky部分的斜率学出来,而不是指定 还有一种变体是,Randomized Relu,就是说这个斜率是每次随机的 Exponential 阅读全文

posted @ 2018-06-26 20:39 fxjwind 阅读(1824) 评论(1) 推荐(0) 编辑

RNN Train和Test Mismatch
摘要:李宏毅深度学习 https://www.bilibili.com/video/av9770302/?p=8 在看RNN的时候,你是不是也会觉得有些奇怪, Train的过程中, 是把训练集中的结果作为下一步的输入 目标函数,是每一步的真实输出和训练集结果的交叉熵 Test的过程中, 是直接把每一步的输 阅读全文

posted @ 2018-06-08 17:47 fxjwind 阅读(715) 评论(0) 推荐(0) 编辑

Attention模型
摘要:李宏毅深度学习 https://www.bilibili.com/video/av9770302/?p=8 Generation 生成模型基本结构是这样的, 这个生成模型有个问题是我不能干预数据生成,这里是随机的, Conditional Generation 这里我们通过初始输入来增加条件, 比如 阅读全文

posted @ 2018-06-08 16:34 fxjwind 阅读(6908) 评论(0) 推荐(1) 编辑

Recurrent NN vs Recursive NN
摘要:https://www.bilibili.com/video/av9770302/?p=8 李宏毅深度学习 图很清楚的反映出两者的不同 Recurrent可以看成Recursive的特殊形式,即以特定方式组成的recursive 阅读全文

posted @ 2018-06-04 17:32 fxjwind 阅读(1379) 评论(0) 推荐(0) 编辑

VAE (variational autoencoder)
摘要:Understanding Variational Autoencoders (VAEs) 为何不能用AE的decoder来直接生成数据? 因为这里的latent space的regularity无法保证 右边给出的例子,AE只是保证training过程中的cases的这些离散点,会导致严重的ove 阅读全文

posted @ 2018-05-28 14:18 fxjwind 阅读(34891) 评论(5) 推荐(1) 编辑

AndrewNG Deep learning课程笔记 - CNN
摘要:参考, An Intuitive Explanation of Convolutional Neural Networks http://www.hackcv.com/index.php/archives/104/?hmsr=toutiao.io&utm_medium=toutiao.io&utm_ 阅读全文

posted @ 2018-04-07 12:00 fxjwind 阅读(2098) 评论(0) 推荐(0) 编辑

频率派,最大似然估计,贝叶斯派,最大后验概念估计
摘要:详解最大似然估计(MLE)、最大后验概率估计(MAP),以及贝叶斯公式的理解 https://blog.csdn.net/u011508640/article/details/72815981 聊一聊机器学习的MLE和MAP:最大似然估计和最大后验估计 https://zhuanlan.zhihu. 阅读全文

posted @ 2018-04-02 15:54 fxjwind 阅读(480) 评论(0) 推荐(0) 编辑

AndrewNG Deep learning课程笔记 - RNN
摘要:The Unreasonable Effectiveness of Recurrent Neural Networks,http://karpathy.github.io/2015/05/21/rnn-effectiveness/ https://www.csdn.net/article/2015- 阅读全文

posted @ 2018-04-01 13:34 fxjwind 阅读(596) 评论(0) 推荐(0) 编辑

AndrewNG Deep learning课程笔记
摘要:神经网络基础 Deep learning就是深层神经网络 神经网络的结构如下, 这是两层神经网络,输入层一般不算在内,分别是hidden layer和output layer hidden layer中的一个神经元的结构如下, 可以看出这里的神经元结构等同于一个逻辑回归单元,神经元都是由线性部分和非 阅读全文

posted @ 2018-03-30 16:48 fxjwind 阅读(1806) 评论(0) 推荐(0) 编辑

Deep Learning
摘要:http://www.deeplearningbook.org/ mark 阅读全文

posted @ 2016-10-26 13:35 fxjwind 阅读(253) 评论(0) 推荐(0) 编辑

Deep Learning Tutorial
摘要:http://www.slideshare.net/tw_dsconf/ss-62245351?qid=c0f0f97a-6ca8-4df0-97e2-984452215ee7&v=&b=&from_search=1 参考链接, Softmax 函数的特点和作用是什么? 如何直观的解释back propagation算法? 技术向:一文读懂卷积神经网络CNN 怎样通俗易懂地解释卷积... 阅读全文

posted @ 2016-08-23 11:43 fxjwind 阅读(261) 评论(0) 推荐(0) 编辑

Spark MLlib - Decision Tree源码分析
摘要:http://spark.apache.org/docs/latest/mllib-decision-tree.html 以决策树作为开始,因为简单,而且也比较容易用到,当前的boosting或random forest也是常以其为基础的 决策树算法本身参考之前的blog,其实就是贪婪算法,每次切分使得数据变得最为有序 那么如何来定义有序或无序? 无序,node impurity ... 阅读全文

posted @ 2014-12-08 14:32 fxjwind 阅读(6708) 评论(0) 推荐(0) 编辑

Machine Learning in Action – PCA和SVD
摘要:降维技术, 首先举的例子觉得很好,因为不知不觉中天天都在做着降维的工作 对于显示器显示一个图片是通过像素点0,1,比如对于分辨率1024×768的显示器,就需要1024×768个像素点的0,1来表示,这里每个像素点都是一维,即是个1024×768维的数据。而其实眼睛真正看到的只是一副二维的图片,这里眼睛其实在不知不觉中做了降维的工作,把1024×768维的数据降到2维 降维的好处,显而易见... 阅读全文

posted @ 2014-10-09 20:53 fxjwind 阅读(1782) 评论(0) 推荐(0) 编辑

1 2 3 4 下一页