随笔分类 -  日常学习笔记

摘要:三个不同的估计框架。 MLE最大似然估计:根据训练数据,选取最优模型,预测。观测值D,training data;先验为P(θ)。 MAP最大后验估计:后验概率。 Bayesian贝叶斯估计:综合模型。权重叠加。 Coin Toss Problem 扔硬币问题 硬币不均匀,P(H正面)=θ 若所投硬 阅读全文
posted @ 2019-03-14 22:25 ostartech 阅读(828) 评论(0) 推荐(0)
摘要:结构体打包数据 封装,加上,不能再直接操作了。只能通过函数去操作。 如果 会空4个字节,所以是加2。才能改第二个。 阅读全文
posted @ 2019-03-11 21:29 ostartech 阅读(458) 评论(0) 推荐(0)
摘要:数据和地址 变量绑定了一块内存,一块内存1-4个字节一个变量:多个地址所标记的内存段,多个地址!内存段的第一个地址叫首地址,一般简称为地址。 普通变量的定义 指针变量 int* p; 定义了一个指针变量,并不知道它指哪里,叫它野指针。并不是说不安全。但野指针很容易不安全。 解引用:操作指针 操作指针 阅读全文
posted @ 2019-03-11 20:41 ostartech 阅读(185) 评论(0) 推荐(0)
摘要:商业股票数据 线性回归 岭回归: 使用二范数: 适合少样本稀疏数据,保留每个样本属性。 分类和回归树: 信息增益 每次树分节点时,样本是有放回采样 xgboost:extreme极度,求导时残差有泰勒展开。 GBDT:极度梯度决策树,残差方向求导。 过拟合的原因: 正常情况,训练集和测试集都应下降 阅读全文
posted @ 2019-03-04 20:47 ostartech 阅读(513) 评论(0) 推荐(0)
摘要:Sobel Canny 非极大值抑制NMS,上表为角度,下表为灰度 26度,在0-45°之间,离45°更近。 把不是极大值的点改为0,这样边缘会细很多。 双阈值判定 深度优先遍历 阅读全文
posted @ 2019-02-26 21:27 ostartech 阅读(220) 评论(0) 推荐(0)
摘要:1.自然语言处理2.情感分析3.监督学习模型4.词向量 5.fasttext 汉藏语系,是语言系属分类(Language family)的一种,分为汉语族和藏缅语族,是用汉语和藏语的名称概括与其有亲属关系的457种语言。 这个语系至少包含汉语语族、藏缅语族、苗瑶语族以及壮侗语族,共计约400种语言。 阅读全文
posted @ 2019-02-22 20:52 ostartech 阅读(158) 评论(0) 推荐(0)
摘要: 阅读全文
posted @ 2019-02-20 22:23 ostartech 阅读(210) 评论(0) 推荐(0)
摘要: 阅读全文
posted @ 2019-02-20 21:03 ostartech 阅读(190) 评论(0) 推荐(0)
摘要:后面框架回归和分类都放到了神经网络里 测试速度提升100倍 训练10 阅读全文
posted @ 2019-02-20 20:55 ostartech 阅读(209) 评论(0) 推荐(0)
摘要:R-CNN -> SPP-Net -> Fast-RCNN 阅读全文
posted @ 2019-02-20 20:51 ostartech 阅读(331) 评论(0) 推荐(0)
摘要:候选框确定算法 对于候选框的位置确定问题,简单粗暴的方法就是穷举或者说滑动窗口法,但是这必然是不科学的,因为时间和计算成本太高,直观的优化就是假设同一种物体其在图像邻域内有比较近似的特征(例如颜色、纹理等等)。 由此提出使用比较广泛的Selective search算法 Selective sear 阅读全文
posted @ 2019-02-20 20:44 ostartech 阅读(6741) 评论(0) 推荐(0)
摘要:数据挖掘 比之前的Ap快,因为只遍历两次。 降序 一、构建FP树 对频繁项集排序,以构成共用关系。 二、基于FP树的频繁项分析 看那个模式基出现过几次。频繁度。 看洗发液的 去掉频繁度小的 构建洗发液的条件FP树。 优缺点: 使用Apriori算法和FP-growth算法进行关联分析 - qwert 阅读全文
posted @ 2019-01-03 21:06 ostartech 阅读(603) 评论(0) 推荐(0)
摘要:近义词、一词多义 GPT、ELMO、Bert 阅读全文
posted @ 2018-12-28 20:09 ostartech 阅读(177) 评论(0) 推荐(0)
摘要:关联规则、频繁项集、支持度、置信度 关联规则挖掘: 一起购买的商品 支持度(support) 支持度会随着物品增多而减小。因为是同时购买的比率。 置信度(Confidence) 频繁且强规则,有一定意义。 Apriori算法 太复杂。 先寻找频繁项集(大于所设置阈值),这时剔除掉不频繁的了。 构建下 阅读全文
posted @ 2018-12-27 21:04 ostartech 阅读(297) 评论(0) 推荐(0)
摘要:卷积 作用: 降低一点点维度 通过不同的卷积核提取不同的特征 卷积核:提取特征 一个卷积核提取一种特征 假设3*3的卷积核,每个卷积核9个参数 卷积核内的参数由训练所得。固定的 权值共享:每一次滑窗所使用的卷积核都是相同的。 卷积主要是用来提取特征,降维的作用不是很明显。 卷积核:3×3,5×5,7 阅读全文
posted @ 2018-12-25 21:35 ostartech 阅读(142) 评论(0) 推荐(0)
摘要:Fast RCNN更准一些、其损失函数比YOLO简单。 YOLO更快 YOLO(You Only Look Once) 简介: 测试过程: 训练过程: 坐标、含有、不含、类别预测 目标检测的效果准确率 mAP:值1-100,m是mean。 YOLO v2 YOLO v2: https://arxiv 阅读全文
posted @ 2018-12-22 21:18 ostartech 阅读(677) 评论(0) 推荐(0)
摘要:FASTTEXT(Facebook开源技术) 二分类任务,监督学习。 自然语言 NLP自然语言处理 步骤: 语料Corpus:好评和差评 分词Words Segmentation:基于HMM构建dict tree 构建词向量Construct Vector: 构建词向量Construct Vecto 阅读全文
posted @ 2018-12-21 21:01 ostartech 阅读(923) 评论(0) 推荐(0)
摘要:预测评分,线性回归模型。推荐预测评分高的。 基于商品的协同过滤: 基于用户的协同过滤: 相似度衡量:欧式距离、皮尔逊系数、余弦相似度。 由评分,没看过的是?,预测评分来推荐。 结合内容参数,来预测评分: 线性回归模型 建立损失函数,引入正则化项防止过拟合。对所有用户的损失函数加起来。 梯度下降法优化 阅读全文
posted @ 2018-12-20 20:48 ostartech 阅读(172) 评论(0) 推荐(0)
摘要:ImagePy http://www.imagepy.org/ 分水岭,山脊线 断的连线 距离变换,降水 阅读全文
posted @ 2018-12-20 20:32 ostartech 阅读(612) 评论(0) 推荐(0)
摘要:PCA主成分分析 PCA降维。基于方差降维,属于无监督学习。无需数据标签。 使方差(数据离散量)最大,变换后数据分开。更易于分类。 可以对隐私数据PCA,数据加密。 基变换 投影->内积 基变换 正交的基,两个向量垂直(内积为0,线性无关) 先将基化成各维度下的单位向量。 一般把数据写成列向量的形式 阅读全文
posted @ 2018-12-19 20:55 ostartech 阅读(843) 评论(0) 推荐(0)