10 2018 档案

005-HMM隐马尔可夫链
摘要:马尔可夫链,因安德烈·马尔可夫(A.A.Markov,1856-1922)得名,是指数学中具有马尔科夫性质的离散随机过程。 在给定当前知识或信息的情况下,过去(即当前以前的历史状态)对于预测将来(即当前以后的未来状态)是无关的。 每个状态的转移,只依赖于之前的n个状态,这个过程被称为1个n阶的模型。 阅读全文

posted @ 2018-10-29 22:31 医疗兵皮特儿 阅读(1114) 评论(0) 推荐(0)

004-基于统计的翻译系统
摘要:双语数据预处理 学习目标:了解和学习开发汉英双语数据预处理模块。 双语数据预处理是统计机器翻译系统构建的第一步,为词对齐处理提供分词后的双语数据。预处理的工作本质上就是双语数据的分词处理,与传统分词不同的一点在于需要对一些特定类型词汇进行泛化处理,如数字词汇“123.45”泛化为“$number”来 阅读全文

posted @ 2018-10-28 22:26 医疗兵皮特儿 阅读(645) 评论(0) 推荐(0)

003-LDA
摘要:主题模型 主题模型理理论 直观版 标准版 公式版实战 一眼看穿『希拉⾥里里邮件门』 什么是主体模型? 理论解释 理理解整个过程,涉及到⽐比较复杂数学推导。一般来说,从公式1⼀一直推导到公式100,大部分同学会在公式10左右的时候,就关了了直播,洗洗睡了了所以,我今天⽤用3个不不同版本的讲解,从简单到 阅读全文

posted @ 2018-10-27 17:46 医疗兵皮特儿 阅读(235) 评论(0) 推荐(0)

002-01朴素贝叶斯到语言模型
摘要:朴素贝叶斯 1. 引言 贝叶斯方法是一个历史悠久,有着坚实的理论基础的方法,同时处理很多问题时直接而又高效,很多高级自然语言处理模型也可以从它演化而来。因此,学习贝叶斯方法,是研究自然语言处理问题的一个非常好的切入口。 2. 贝叶斯公式 贝叶斯公式就一行: 而它其实是由以下的联合概率公式推导出来: 阅读全文

posted @ 2018-10-26 20:58 医疗兵皮特儿 阅读(259) 评论(0) 推荐(0)

001-NLP基础
摘要:正则表达式 以前的易语言基础学过正则表达式笔记: http://p8dkemhqq.bkt.clouddn.com/%E6%AD%A3%E5%88%99%E8%A1%A8%E8%BE%BE%E5%BC%8F.pdf jieba中文处理 和拉丁语系不同,亚洲语言是不用空格分开每个有意义的词的。而当我们 阅读全文

posted @ 2018-10-26 04:56 医疗兵皮特儿 阅读(182) 评论(0) 推荐(0)

11-word2vec
摘要:当我们分析图片或者语音的时候,通常都是在密集高纬度数据。我们所需的全部信息都储存在原始数据中。 当我们做自然语言处理的时候,我们通常会分词,然后给每一个词一个编号,比如猫的编号是120,狗的编号是343。比如女生的编号是2329.这些编号没有规律,没有联系,我们从编号中不能得到词语词的相关性。 例如 阅读全文

posted @ 2018-10-26 01:04 医疗兵皮特儿 阅读(130) 评论(0) 推荐(0)

009-TensorFlow-GPU版本安装
摘要:1,NVIDIA显卡安装CUDA 2,添加CUDA目录下的bin和lib\x64目录,到环境变量 3,cuDNN安装(需在NVIDIA官网注册账号),将cuDNN解压完成后的bin,include,lib目录复制到CUDA响应目录。 4,将CUDA\v10.0\extras\CUPTI\lib64\ 阅读全文

posted @ 2018-10-25 20:42 医疗兵皮特儿 阅读(106) 评论(0) 推荐(0)

008-TensorFlow的模型保存于加载
摘要:保存: 加载: 阅读全文

posted @ 2018-10-25 20:32 医疗兵皮特儿 阅读(98) 评论(0) 推荐(0)

007-RNN和LSTM
摘要:这个LSTM的PPT没有前面讲的那个好。 阅读全文

posted @ 2018-10-24 01:29 医疗兵皮特儿 阅读(246) 评论(0) 推荐(0)

006-卷积神经网络
摘要:经验之谈: 一般样本的大小是权值的5~10倍 自己的小笔记本4×i7,GTX960+4G,跑不起来 在阿里云的天池实验室跑,巨慢,21次迭代需要半个小时 结果: 最后的准确率达到了99.02% 阅读全文

posted @ 2018-10-23 22:05 医疗兵皮特儿 阅读(185) 评论(0) 推荐(0)

005-2-tensorboard-显示网络结构
摘要:logs文件夹在anaconda prompt中输入命令: tensorboard --logdir=logs路径 可以复制后面那个网址,也可以直接进入http://localhost:6006 可以得到整个网络结构 阅读全文

posted @ 2018-10-22 14:29 医疗兵皮特儿 阅读(206) 评论(0) 推荐(0)

004-3-Optimizer优化器
摘要:如何选择优化算法 如果数据是稀疏的,就用自适用方法,即 Adagrad, Adadelta, RMSprop, Adam。 RMSprop, Adadelta, Adam 在很多情况下的效果是相似的。 Adam 就是在 RMSprop 的基础上加了 bias-correction 和 momentu 阅读全文

posted @ 2018-10-22 04:25 医疗兵皮特儿 阅读(132) 评论(0) 推荐(0)

004-2-拟合,drop-out
摘要:keep_prob = 1.0时Iter1,Testing accuracy-0.944,Train accuracy-0.958545Iter2,Testing accuracy-0.958,Train accuracy-0.974691Iter3,Testing accuracy-0.9621, 阅读全文

posted @ 2018-10-22 03:40 医疗兵皮特儿 阅读(279) 评论(0) 推荐(0)

004-1-代价函数与激活函数
摘要:同样对于上一课的例子,将二次代价函数换成交叉熵函数 阅读全文

posted @ 2018-10-22 02:33 医疗兵皮特儿 阅读(273) 评论(0) 推荐(0)

003-2-TensorFlow识别手写数字数据集MNIST(简单版本)
摘要:构建神经网络: 阅读全文

posted @ 2018-10-22 01:18 医疗兵皮特儿 阅读(300) 评论(0) 推荐(0)

003-TensorFlow简单使用
摘要:回归: 0 0.554074 200 0.00908821 400 0.000556468 600 0.000509932 800 0.0004985 1000 0.000490006 1200 0.000483575 1400 0.000478674 1600 0.000474905 1800 0 阅读全文

posted @ 2018-10-21 17:42 医疗兵皮特儿 阅读(202) 评论(0) 推荐(0)

002-TensorFlow基础
摘要:基本概念实操: 0 [1763.568, 68.205513, 0.53934586] 20 [78.176331, 29.277592, -16.521879] 40 [25.467432, 16.753452, -9.3442173] 60 [8.2964983, 9.6051531, -5.2 阅读全文

posted @ 2018-10-21 05:16 医疗兵皮特儿 阅读(151) 评论(0) 推荐(0)

jupyter 代码补全
摘要:参考: https://www.cnblogs.com/qiuxirufeng/p/9609031.html 阅读全文

posted @ 2018-10-20 22:50 医疗兵皮特儿 阅读(235) 评论(0) 推荐(0)

002-词向量,神经网络模型,CBOW,哈夫曼树,Negative Sampling
摘要:词向量: 无论是一段话或是一篇文章,词都是最基本的组成单位。 如何让计算机利用这些词? 重点是如何把一个词转换成一个想向量 如果在一个二维空间中,had,has,have意思相同,所以要离的比较近。 need,help也是离的比较近 要表现出相同,相关。 比如说下面的例子: 哪些词离青蛙frog比较 阅读全文

posted @ 2018-10-20 00:01 医疗兵皮特儿 阅读(669) 评论(0) 推荐(0)

001-语言模型
摘要:语言模型: 我 今天 下午 打 篮球 p(S)=p(w1,w2,w3,w4,w5,…,wn)=p(w1)p(w2|w1)p(w3|w1,w2)...p(wn|w1,w2,...,wn-1) . p(S)被称为语言模型,即用来计算一个句子概率的模型 p(w2|w1)p(w3|w1,w2)...p(wn 阅读全文

posted @ 2018-10-19 21:27 医疗兵皮特儿 阅读(193) 评论(0) 推荐(0)

009-LSTM网络-长短记忆网络
摘要:基于RNN网络的2个缺陷(全部记忆,梯度消失),现有RNN网络的升级版LSTM LSTM要做的一件事就是本次有选择的记忆用到下一次的递归工作中。 LSTM网络中,与RNN最大的区别,也是LSTM网络中最核心的东西就是控制记忆的参数C了 C是一个矩阵,用来和输入做内积,用实际的数字控制输入哪些该遗忘, 阅读全文

posted @ 2018-10-19 13:46 医疗兵皮特儿 阅读(335) 评论(0) 推荐(0)

008---递归神经网络-RNN
摘要:常规神经网络: 常规的神经网络是各算各的,每个x之间都是独立的 递归神经网络: 递归神经网络要干的一件事就是,在隐藏层中,x1利用了x0的w,x2利用了x1的w,x3利用x2的w。。。。。以此类推 例如下面这个例子: x0表示“我出生” x1表示“在” x2表示“中国” xt表示“我说” xt+1就 阅读全文

posted @ 2018-10-19 11:38 医疗兵皮特儿 阅读(218) 评论(0) 推荐(0)

007-卷积神经网络03-前向传播-反向传播
摘要:前向传播: 前向传播就是求特征图的过程 通常x和w有四个维度[编号,深度,高度,宽度] 反向传播: 先来复习一下反向传播的知识: 反向传播回来的是梯度,也就是偏导数 反向传播力有一个链式法则:对于反向传播(反着看),本层要往后面一层穿的的偏导=本层自身的偏导×上一层传过来的偏导 红色代表反向传播,绿 阅读全文

posted @ 2018-10-17 15:56 医疗兵皮特儿 阅读(380) 评论(0) 推荐(0)

006-卷积神经网络02-池化层,全连接层
摘要:池化层(Pooling layer) 池化层干一件事:将特征图进行浓缩 两种方法:一种是max方法,一种是mean方法, max方法做的事就是在特征图中选定一个区域,选取里面的最大值,然后放在pooling的结果中 mean方法就是在特征图中选定一个区域,求这个区域的均值,然后放在pooling的结 阅读全文

posted @ 2018-10-17 15:15 医疗兵皮特儿 阅读(461) 评论(0) 推荐(0)

005-卷积神经网络01-卷积层
摘要:网络要做的步骤:(一个中国人,给中国人教学,为什么要写一堆英语?) 1, sample abatch of data(数据抽样) 2,it through the graph ,get loss(前向传播,得到损失值) 3,backprop to calculate the geadiets(反向传 阅读全文

posted @ 2018-10-16 11:13 医疗兵皮特儿 阅读(300) 评论(0) 推荐(0)

004-神经网络
摘要:神经网络公式与模型: 神经网络在计算机中的样子: 输入层和隐藏1层用w1链接,隐藏1和隐藏2层用w2链接,隐藏2层和输出层用w3链接。 那么w1应该是一个3×4的矩阵,表示有3个样本,4个特征。 线性很少能满足实际要求,于是非线性的函数出现了,max(0,w1x)称为激活函数 例如用sigmoid当 阅读全文

posted @ 2018-10-14 23:32 医疗兵皮特儿 阅读(186) 评论(0) 推荐(0)

003-神经网络基础-最优化,前向传播,反向传播
摘要:最优化: 包括前向传播和反向传播 前向传播: 由w和x到损失函数loss的过程叫做前向传播 反向传播: 根据梯度下降的概念,找到最优的w的过程叫做反向传播。 做一件什么事情呢? 根据前向传播的w得到的loss,将loss反馈给上一次前向传播的w进行比较两次的w,看看哪个w使得loss小,那么就用小l 阅读全文

posted @ 2018-10-14 21:36 医疗兵皮特儿 阅读(493) 评论(0) 推荐(0)

002-神经网络基础-得分函数,SVM损失函数,正则化惩罚项,softmax函数,交叉熵损失函数
摘要:得分函数: 将图片拉伸成一个一维矩阵x,也就是3072×1,最后要得出10个分类的得分值也就是10×1,那w就得是10×3072的矩阵,也就是10组3072个特征的权重值,乘以x,加上b,得到的一个10×1的矩阵,这个矩阵就是最终的每个分类的得分值。 假设将图像分为2×2个像素点,最后又3中类型,那 阅读全文

posted @ 2018-10-14 02:50 医疗兵皮特儿 阅读(2038) 评论(0) 推荐(0)

001-神经网络基础-K近邻算法
摘要:K-近邻算法: 如果K = 3,绿色圆点最近的3个邻居:2个红色三角,和1个蓝色矩形,少数从属多数,基于统计的算法,判定绿色圆点为红色三角一类。 如果K = 5,绿色圆点最近的5个邻居:2个红色三角,和3个蓝色矩形,少数从属多数,基于统计的算法,判定绿色圆点为蓝色矩形一类。 对于未知类别属性数据集中 阅读全文

posted @ 2018-10-14 01:52 医疗兵皮特儿 阅读(514) 评论(0) 推荐(0)

DBSCAN聚类算法
摘要:基本概念:(Density-Based Spatial Clustering of Applications with Noise)基于密度的噪声应用空间聚类 核心对象:若某个点的密度达到算法设定的阈值则其为核心点。(即r 邻域内点的数量不小于minPoints) ϵ-邻域的距离阈值:设定的半径r 阅读全文

posted @ 2018-10-11 15:23 医疗兵皮特儿 阅读(272) 评论(0) 推荐(0)

K-MEANS算法
摘要:聚类概念: 无监督问题:我们手里没有标签了 聚类:相似的东西分到一组 难点:如何评估,如何调参 要得到簇的个数,需要指定K值 质心:均值,即向量各维取平均即可 距离的度量:常用欧几里得距离和余弦相似度(先标准化) 优化目标: Ci是质心,x是数据,质心到数据的距离 工作流程: 通过不断更新质心来确定 阅读全文

posted @ 2018-10-11 14:16 医疗兵皮特儿 阅读(267) 评论(0) 推荐(0)

SVM-支持向量机算法
摘要:Support Vector Machine 要解决的问题:什么样的决策边界才是最好的呢?支持向量机特征数据本身如果就很难分,怎么办呢?计算复杂度怎么样?能实际应用吗?目标:基于上述问题对SVM进行推导 决策边界:选出来离雷区最远的(雷区就是边界上的点,要Large Margin) 距离的计算 .距 阅读全文

posted @ 2018-10-07 21:16 医疗兵皮特儿 阅读(776) 评论(0) 推荐(0)

003-文本分析
摘要:停用词 1.语料中大量出现 2.没啥大用 3.留着过年嘛? Tf-idf:关键词提取 《中国的蜜蜂养殖》: 进行词频(Term Frequency,缩写为TF)统计 出现次数最多的词是 “的”、“是”、“在” 这一类最常用的词(停用词) “中国”、“蜜蜂”、“养殖”这三个词的出现次数一样多,重要性是 阅读全文

posted @ 2018-10-05 10:29 医疗兵皮特儿 阅读(228) 评论(0) 推荐(0)

002-贝叶斯拼写纠正实例
摘要:拼写纠正实例: 问题是我们看到用户输入了一个不在字典中的单词,我们需要去猜测:“这个家伙到底真正想输入的单词是什么呢? P(我们猜测他想输入的单词| 他实际输入的单词) 用户实际输入的单词记为D (D 代表Data ,即观测数据) 猜测1:P(h1 | D),猜测2:P(h2 | D),猜测3:P( 阅读全文

posted @ 2018-10-05 07:49 医疗兵皮特儿 阅读(415) 评论(0) 推荐(0)

001-贝叶斯算法简介
摘要:贝叶斯简介: 贝叶斯(约1701-1761) Thomas Bayes,英国数学家 贝叶斯方法源于他生前为解决一个“逆概”问题写的一篇文章 生不逢时,死后它的作品才被世人认可 贝叶斯要解决的问题: 正向概率:假设袋子里面有N个白球,M个黑球,你伸手进去摸一把,摸出黑球的概率是多大 逆向概率:如果我们 阅读全文

posted @ 2018-10-05 06:39 医疗兵皮特儿 阅读(571) 评论(0) 推荐(0)

【矩阵的乘积/复合变换】- 图解线性代数 05
摘要:本文转自公众号 遇见数学 图解数学 线性代数部分 感谢遇见数学工作组将大学课本晦涩难懂、故作高深的数学知识,用通俗易懂而又生动有趣的方法解释出来。 矩阵向量的乘积可以理解为将一个特定的线性变换作用在向量上, 本次我们先看几个特殊的矩阵下的变换以及矩阵矩阵的乘积. 零矩阵 即所有元素都是 0 的矩阵, 阅读全文

posted @ 2018-10-03 23:16 医疗兵皮特儿 阅读(841) 评论(0) 推荐(0)

【行列式】- 图解线性代数 04
摘要:本文转自公众号 遇见数学 图解数学 线性代数部分 感谢遇见数学工作组将大学课本晦涩难懂、故作高深的数学知识,用通俗易懂而又生动有趣的方法解释出来。 这次我们主要做一个回顾, 再进一步将行列式的几何意义用动画展示说明. 我们说矩阵 A 可以视为一种线性变换, 所以 上面的式子意味着求一个向量 x 在线 阅读全文

posted @ 2018-10-03 22:34 医疗兵皮特儿 阅读(638) 评论(0) 推荐(0)

【线性变换/矩阵及乘法】- 图解线性代数 03
摘要:本文转自公众号 遇见数学 图解数学 线性代数部分 感谢遇见数学工作组将大学课本晦涩难懂、故作高深的数学知识,用通俗易懂而又生动有趣的方法解释出来。 线性变换是线性空间中的运动, 而矩阵就是用来描述这种变换的工具. 这样说还是没有直观印象, 所以还是直接看图解的动画吧. 矩阵不仅仅只是数值的表: 其实 阅读全文

posted @ 2018-10-03 22:20 医疗兵皮特儿 阅读(608) 评论(0) 推荐(0)

【基底 / 线性组合 / 线性无关(相关)】- 图解线性代数 02
摘要:本文转自公众号 遇见数学 图解数学 线性代数部分 感谢遇见数学工作组将大学课本晦涩难懂、故作高深的数学知识,用通俗易懂而又生动有趣的方法解释出来。 基底 在二维线性空间中, 只要用两个特殊的向量就可以来用定位(表示)出任意向量: 空间中的任何向量都是可以通过缩放这两个向量再相加表示出来. 现在想象, 阅读全文

posted @ 2018-10-03 21:31 医疗兵皮特儿 阅读(1385) 评论(0) 推荐(0)

【向量】- 图解线性代数 01
摘要:本文转自公众号 遇见数学 图解数学 线性代数部分 感谢遇见数学工作组将大学课本晦涩难懂、故作高深的数学知识,用通俗易懂而又生动有趣的方法解释出来。 向量的概念 现实中工作中, 我们会把几个数值放在一起, 当做一个整体来分析, 这就有了向量(Vector) ̶ 一种有序的数值列表. 为了把向量和点区分 阅读全文

posted @ 2018-10-03 21:13 医疗兵皮特儿 阅读(941) 评论(0) 推荐(0)

集成算法
摘要:Ensemble learning 集成算法 目的:让机器学习效果更好,单个不行,群殴走起 Bagging:并行 训练多个分类器取平均 全称:bootstrap aggregation(说白了就是并行训练一堆分类器) 最典型的代表就是随机森林啦 随机:数据采样随机,特征选择随机 森林:很多个决策树并 阅读全文

posted @ 2018-10-03 17:45 医疗兵皮特儿 阅读(307) 评论(0) 推荐(0)

导航