会员
周边
新闻
博问
闪存
众包
赞助商
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
将者,智、信、仁、勇、严也。
Hi,我是李智华,华为-安全AI算法专家,欢迎来到安全攻防对抗的有趣世界。
博客园
首页
新随笔
联系
订阅
管理
上一页
1
···
177
178
179
180
181
182
183
184
185
···
274
下一页
2018年2月7日
word2vec和word embedding有什么区别?
摘要: word2vec和word embedding有什么区别? 我知道这两个都能将词向量化,但有什么区别?这两个术语的中文是什么? 我知道这两个都能将词向量化,但有什么区别?这两个术语的中文是什么? 我知道这两个都能将词向量化,但有什么区别?这两个术语的中文是什么? 我知道这两个都能将词向量化,但有什么
阅读全文
posted @ 2018-02-07 11:54 bonelee
阅读(1020)
评论(0)
推荐(0)
2018年2月5日
Elasticsearch源码分析—线程池(十一) ——就是从队列里处理请求
摘要: Elasticsearch源码分析—线程池(十一) 转自:https://www.felayman.com/articles/2017/11/10/1510291570687.html 线程池 每个节点都有一些线程池来优化线程内存的消耗,按节点来配置管理。有些线程池还拥有与之关联的队列配置,用来允许
阅读全文
posted @ 2018-02-05 12:12 bonelee
阅读(1431)
评论(0)
推荐(0)
2018年2月3日
elasticsearch date_histogram
摘要: (5)Date Histogram Aggregation 时间直方图聚合,专门对时间类型的字段做直方图聚合。这种需求是比较常用见得的,我们在统计时,通常就会按照固定的时间断(1个月或1年等)来做统计。下面统计学校中同一年出生的学生数。 返回结果如下,可以看到由于上面的”format”: “yyyy
阅读全文
posted @ 2018-02-03 15:28 bonelee
阅读(1964)
评论(0)
推荐(0)
lucene 范围过滤
摘要: Lucene里面有关于Filter的整体知识 下面,我们来看下具体的在代码里怎么实现,先来看下我们的测试数据 Java代码 id score bookname ename type price date 1 1 飘渺之旅 pmzl 小说 52.23 201005 2 1 三国演义 sgyy 小说 3
阅读全文
posted @ 2018-02-03 12:05 bonelee
阅读(371)
评论(0)
推荐(0)
elasticsearch _field_stats 源码分析
摘要: _field_stats 实现的功能:https://www.elastic.co/guide/en/elasticsearch/reference/5.6/search-field-stats.html 获取索引下字段的统计信息,如下表,同时还可以针对这些统计值进行过滤: Field statis
阅读全文
posted @ 2018-02-03 11:00 bonelee
阅读(1066)
评论(2)
推荐(0)
2018年2月2日
tflearn mnist 使用MLP 全连接网络一般都会加dropout哇
摘要: from:https://github.com/tflearn/tflearn/blob/master/examples/images/dnn.py
阅读全文
posted @ 2018-02-02 11:40 bonelee
阅读(541)
评论(0)
推荐(0)
2018年2月1日
https://www.threatminer.org/domain.php?q=blackschickens.xyz ——域名的信誉查询站点 还可以查IP
摘要: https://www.threatminer.org/domain.php?q=blackschickens.xyz https://www.threatminer.org/host.php?q=62.112.9.52 https://www.robtex.com/dns-lookup/79186
阅读全文
posted @ 2018-02-01 15:05 bonelee
阅读(879)
评论(0)
推荐(0)
2018年1月31日
GBDT(MART) 迭代决策树入门教程 | 简介
摘要: GBDT(MART) 迭代决策树入门教程 | 简介 在网上看到一篇对从代码层面理解gbdt比较好的文章,转载记录一下: GBDT(Gradient Boosting Decision Tree) 又 叫 MART(Multiple Additive Regression Tree),是一种迭代的决策
阅读全文
posted @ 2018-01-31 17:48 bonelee
阅读(472)
评论(0)
推荐(0)
local_response_normalization 和 batch_normalization
摘要: Normalization Normalization local_response_normalization local_response_normalization出现在论文”ImageNet Classification with deep Convolutional Neural Netw
阅读全文
posted @ 2018-01-31 15:48 bonelee
阅读(1207)
评论(0)
推荐(0)
交叉熵代价函数——当我们用sigmoid函数作为神经元的激活函数时,最好使用交叉熵代价函数来替代方差代价函数,以避免训练过程太慢
摘要: 交叉熵代价函数 machine learning算法中用得很多的交叉熵代价函数。 1.从方差代价函数说起 代价函数经常用方差代价函数(即采用均方误差MSE),比如对于一个神经元(单输入单输出,sigmoid函数),定义其代价函数为: 其中y是我们期望的输出,a为神经元的实际输出【 a=σ(z), w
阅读全文
posted @ 2018-01-31 15:38 bonelee
阅读(1569)
评论(0)
推荐(0)
上一页
1
···
177
178
179
180
181
182
183
184
185
···
274
下一页
公告