打赏
禅在心中
东风夜放花千树,更吹落、星如雨。宝马雕车香满路。凤箫声动,玉壶光转,一夜鱼龙舞。 蛾儿雪柳黄金缕,笑语盈盈暗香去。众里寻他千百度,蓦然回首,那人却在,灯火阑珊处。
摘要: 一、动态内存管理 通常我们创建动态内存的时候,需要自己管理好内存,也就是说,new出来的对象一定要注意释放掉。下面通过例子可以看到这个问题所在: 我们通过Qt中的Clang Static Analyzer的源码分析工具,可以检测到内存问题: 因此,对应的new 出来的动态内存要注意释放掉, 如上即可 阅读全文
posted @ 2018-07-24 00:27 禅在心中 阅读(448) 评论(0) 推荐(0) 编辑
摘要: 只要模型是一层一层的,并使用AD/BP算法,就能称作 BP神经网络。RBF 神经网络是其中一个特例。本文主要包括以下内容: 什么是径向基函数 RBF神经网络 RBF神经网络的学习问题 RBF神经网络与BP神经网络的区别 RBF神经网络与SVM的区别 为什么高斯核函数就是映射到高维区间 前馈网络、递归 阅读全文
posted @ 2018-07-22 12:26 禅在心中 阅读(183678) 评论(2) 推荐(17) 编辑
摘要: 今天遇到一个问题,即在C/C++中,关于在函数里对指针赋值的问题。首先可以看到如下现象: 这个结果令我有点吃惊,我一直以为传递指针,赋值完这个指针也会变的,没想到其实指针也是一个变量,我们如果要改变它,必须找到它在内存中的地址,也就是指针的地址。也就是说,对于函数中,如果对指针的地址进行赋值,事实上 阅读全文
posted @ 2018-07-20 00:16 禅在心中 阅读(10883) 评论(0) 推荐(2) 编辑
摘要: 一、什么是二叉树 二叉树是每个结点最多有两个子树的树结构,二叉树是递归定义的,其结点有左右子树之分,通常包含:满二叉树、完全二叉树、霍夫曼树、平衡二叉树、红黑树等。 满二叉树:如果二叉树中所有分支结点的度数都为2,并且叶子结点都在统一层次上,则二叉树为满二叉树,从图形形态上看,满二叉树外观上是一个三 阅读全文
posted @ 2018-07-19 20:52 禅在心中 阅读(5136) 评论(0) 推荐(0) 编辑
摘要: 本文主要包含以下内容: 一、什么是正则化 二、参数范数模型 2.1 L1正则和L2正则 2.2 为什么通过L1正则、L2正则能够防止过拟合 2.3 L2正则的表现 2.4 L1正则化为什么会产生稀疏解 2.5 L2正则为什么求解比较稳定 三、Dropout和集成方法 3.1 Dropout 3.2 阅读全文
posted @ 2018-07-14 19:22 禅在心中 阅读(18748) 评论(1) 推荐(2) 编辑
摘要: GBDT通过多轮迭代,每轮迭代产生一个弱分类器,其中弱分类器通常选择为CART树,每个分类器在上一轮分类器的残差基础上进行训练。 对于GBDT算法,其中重要的知识点为: 1、GBDT是梯度下降法从参数空间上升到函数空间的算法 2、其属于集成算法Boosting 3、损失函数的构造 一、GBDT损失函 阅读全文
posted @ 2018-07-04 16:41 禅在心中 阅读(693) 评论(0) 推荐(0) 编辑
摘要: 简单的讨论一下参数估计理论 一、什么是参数估计 参数通常用来表示一个量,可以是标量也可以是有值向量。按照时间变化,也可以分为时常参数和时变参数。对于时常参数的估计称为参数估计。对于时变的参数估计称为状态估计,本文不研究。参数估计的包括两个主要的模型以及四个基本估计方法,如下图所示: 贝叶斯学派和频率 阅读全文
posted @ 2018-06-19 22:36 禅在心中 阅读(3605) 评论(0) 推荐(1) 编辑
摘要: 一、什么是卡尔曼滤波 在雷达目标跟踪中,通常会用到Kalman滤波来形成航迹,以前没有学过机器学习相关知识,学习Kalman时,总感觉公式看完就忘,而且很多东西云里雾里并不能深入理解,最后也就直接套那几个递推公式了。通过上一篇CRF,我们可以顺便回顾一下HMM,事实上,这几种算法和Kalman之间是 阅读全文
posted @ 2018-06-19 22:07 禅在心中 阅读(13768) 评论(0) 推荐(1) 编辑
摘要: 对于条件随机场的学习,我觉得应该结合HMM模型一起进行对比学习。首先浏览HMM模型:https://www.cnblogs.com/pinking/p/8531405.html 一、定义 条件随机场(crf):是给定一组输入随机变量条件下,另一组输出随机变量的条件概率的分布模型,其特点是假设输出随机 阅读全文
posted @ 2018-06-18 12:21 禅在心中 阅读(18274) 评论(1) 推荐(3) 编辑
摘要: Dilation 卷积,也被称为:空洞卷积、膨胀卷积。 一、一般的卷积操作: 首先,可以通过动态图,理解正常卷积的过程: 如上图,可以看到卷积操作。 对于CNN结构,通常包括如下部分: 输入层 (input layer) 卷积计算层 (CONV) 激励层(RELU) 池化层(Pooling) 全连接 阅读全文
posted @ 2018-06-17 12:01 禅在心中 阅读(12854) 评论(0) 推荐(0) 编辑