会员
众包
新闻
博问
闪存
赞助商
HarmonyOS
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
yuki_lee
啦啦啦
博客园
首页
新随笔
联系
订阅
管理
2016年12月5日
LSTM梳理,理解,和keras实现 (一)
摘要: 注:本文主要是在http://colah.github.io/posts/2015-08-Understanding-LSTMs/ 这篇文章的基础上理解写成,姑且也可以称作 The understanding of understanding LSTM network. 感谢此篇作者的无私分享和通俗
阅读全文
posted @ 2016-12-05 11:32 Yuki_i
阅读(53594)
评论(4)
推荐(2)
2016年11月22日
keras: 在构建LSTM模型时,使用变长序列的方法
摘要: 众所周知,LSTM的一大优势就是其能够处理变长序列。而在使用keras搭建模型时,如果直接使用LSTM层作为网络输入的第一层,需要指定输入的大小。如果需要使用变长序列,那么,只需要在LSTM层前加一个Masking层,或者embedding层即可。 使用方法:首先将序列转换为定长序列,如,选取一个序
阅读全文
posted @ 2016-11-22 14:46 Yuki_i
阅读(45352)
评论(16)
推荐(0)
2016年8月26日
keras:Exception: Error when checking model target
摘要: 问题: 用keras的functional API搭建多输入多输出模型时,报错某个输出层对应的类标数组大小与模型中不一致。 解决办法:升级keras到最新版(doge脸)keras迭代太快了啊摔,总有些莫名其妙的错误因为版本引起,注意升级吧。。 pip install git+git://githu
阅读全文
posted @ 2016-08-26 16:28 Yuki_i
阅读(1367)
评论(0)
推荐(0)
2016年8月9日
Scipy.sparse矩阵的存储,读取和转化为稠密矩阵
摘要: import numpy as np import scipy.sparse as sp m = sp.lil_matrix((7329,7329)) np.save(path,m) #用numpy的load方法存储矩阵,path为存储的路径 mat = np.load(path)[()] #读取存储的矩阵,注意[()]这个符号可以抽取对象 mat = mat.toarray() ...
阅读全文
posted @ 2016-08-09 15:50 Yuki_i
阅读(5700)
评论(0)
推荐(0)
2016年3月28日
Feature Selection 其一 —— Filter Approach
摘要: 这一个部分都将只涉及到选择特征的某个子集的方法,将高纬度的特征空间映射到低维度空间的方法(如PCA)都不会涉及到。 一. 单变量 优点:运算速度快,独立于分类器 缺点:忽略的特征之间的联系,忽略了与分类器的联系(在训练模型的时候不能调参来提高性能) 1. 卡方检验 主要内容参考来自 http://b
阅读全文
posted @ 2016-03-28 17:30 Yuki_i
阅读(594)
评论(0)
推荐(0)
2016年3月25日
超限学习机 (Extreme Learning Machine, ELM) 学习笔记 (一)
摘要: 1. ELM 是什么 ELM的个人理解: 单隐层的前馈人工神经网络,特别之处在于训练权值的算法: 在单隐层的前馈神经网络中,输入层到隐藏层的权值根据某种分布随机赋予,当我们有了输入层到隐藏层的权值之后,可以根据最小二乘法得到隐藏层到输出层的权值,这也就是ELM的训练模型过程。 与BP算法不同,BP算
阅读全文
posted @ 2016-03-25 17:15 Yuki_i
阅读(18523)
评论(2)
推荐(2)
2015年11月23日
[IR课程笔记]Web search
摘要: 一. 搜索引擎 组成部分: 1. 网络爬虫(web crawler) 2. 索引系统(indexing system) 3. 搜索系统 (searching system) consideration: 1.Economics 2.Scalability 3. Legal issue二. 网络爬虫(...
阅读全文
posted @ 2015-11-23 21:25 Yuki_i
阅读(378)
评论(0)
推荐(0)
2015年11月4日
[数据挖掘课程笔记]无监督学习——聚类(clustering)
摘要: 什么是聚类(clustering) 个人理解:聚类就是将大量无标签的记录,根据它们的特点把它们分成簇,最后结果应当是相同簇之间相似性要尽可能大,不同簇之间相似性要尽可能小。聚类方法的分类如下图所示:一、如何计算样本之间的距离? 样本属性可能有的类型有:数值型,命名型,布尔型……在计算样本之间的距...
阅读全文
posted @ 2015-11-04 00:56 Yuki_i
阅读(2268)
评论(0)
推荐(0)
2015年10月31日
[IR课程笔记]Query Refinement and Relevance Feedback
摘要: 相关反馈的两种类型:“真实”的相关反馈: 1. 系统返回结果 2. 用户提供一些反馈 3. 系统根据这些反馈,返回一些不同的,更好的结果“假定”的相关反馈 1. 系统得到结果但是并不返回结果 2. 系统根据这些结果改善query 3. 根据改善后的query得到结果并返回Rocchio's Modi...
阅读全文
posted @ 2015-10-31 23:07 Yuki_i
阅读(413)
评论(0)
推荐(0)
[IR课程笔记]Hyperlink-Induced Topic Search(HITS)
摘要: 两个假设 1. 好的hub pages: 好的对某个主题的hub pages 链接许多好的这个主题的authoritative pages. 2. 好的authoritative pages: 好的对某个主题的authoritative pages 被许多好的这个主题的hub pages链接。 注...
阅读全文
posted @ 2015-10-31 14:45 Yuki_i
阅读(548)
评论(0)
推荐(0)
下一页
公告