上一页 1 ··· 194 195 196 197 198 199 200 201 202 ··· 273 下一页
摘要: lsof命令是什么? 可以列出被进程所打开的文件的信息。被打开的文件可以是 1.普通的文件,2.目录 3.网络文件系统的文件,4.字符设备文件 5.(函数)共享库 6.管道,命名管道 7.符号链接 8.底层的socket字流,网络socket,unix域名socket 9.在linux里面,大部分的 阅读全文
posted @ 2017-10-26 10:17 bonelee 阅读(54065) 评论(0) 推荐(2)
摘要: 摘自:http://www.freebuf.com/sectool/90616.html 欢迎来到一周PowerShell脚本的第五天,今天我们将讨论使用ICMP和DNS的交互式PowerShell脚本。 通常情况下防火墙都不会主动过滤ICMP和DNS数据包,这就让我们可以使用它们。下面就让我们来看 阅读全文
posted @ 2017-10-25 16:12 bonelee 阅读(1048) 评论(0) 推荐(0)
摘要: 发明背景与现有技术应用背景 深度学习已经在图像分类检测、游戏等诸多领域取得了突破性的成绩。由于人工神经网络计算量大,训练时间长。因此,相关的硬件加速平台也在百花齐放,包括基于英伟达的GPU、谷歌的TPU、以及FPGA实现的神经网络硬件平台。神经网络的结构复杂多样、计算量大的特点,给硬件设计带来了巨大 阅读全文
posted @ 2017-10-25 11:42 bonelee 阅读(518) 评论(0) 推荐(0)
摘要: 基于NEAT算法的马里奥AI实现 所谓NEAT算法即通过增强拓扑的进化神经网络(Evolving Neural Networks through Augmenting Topologies),算法不同于我们之前讨论的传统神经网络,它不仅会训练和修改网络的权值,同时会修改网络的拓扑结构,包括新增节点和 阅读全文
posted @ 2017-10-24 19:12 bonelee 阅读(12290) 评论(0) 推荐(0)
摘要: 默认情况下,Elasticsearch 用 JSON 字符串来表示文档主体保存在 _source 字段中。像其他保存的字段一样,_source 字段也会在写入硬盘前压缩。The _source is stored as a binary blob (which is compressed by Lu 阅读全文
posted @ 2017-10-24 16:29 bonelee 阅读(946) 评论(0) 推荐(0)
摘要: 原文:https://zybuluo.com/hanbingtao/note/626300 有时候把句子看做是词的序列是不够的,比如下面这句话『两个外语学院的学生』: 上图显示了这句话的两个不同的语法解析树。可以看出来这句话有歧义,不同的语法解析树则对应了不同的意思。一个是『两个外语学院的/学生』, 阅读全文
posted @ 2017-10-23 16:41 bonelee 阅读(765) 评论(0) 推荐(0)
摘要: 原文:https://zybuluo.com/hanbingtao/note/541458 循环神经网络也可以画成下面这个样子: 双向循环神经网络 对于语言模型来说,很多时候光看前面的词是不够的,比如下面这句话: 我的手机坏了,我打算____一部新手机。 可以想象,如果我们只看横线前面的词,手机坏了 阅读全文
posted @ 2017-10-23 16:39 bonelee 阅读(1388) 评论(1) 推荐(0)
摘要: 原文:https://www.zybuluo.com/hanbingtao/note/485480 写得非常好,可以细读 全连接网络 VS 卷积网络 全连接神经网络之所以不太适合图像识别任务,主要有以下几个方面的问题: 参数数量太多 考虑一个输入1000*1000像素的图片(一百万像素,现在已经不能 阅读全文
posted @ 2017-10-23 13:21 bonelee 阅读(12670) 评论(0) 推荐(0)
摘要: 原文:https://www.zybuluo.com/hanbingtao/note/476663 写得非常好,适合入门! 神经元 神经元和感知器本质上是一样的,只不过我们说感知器的时候,它的激活函数是阶跃函数;而当我们说神经元时,激活函数往往选择为sigmoid函数或tanh函数。如下图所示: 计 阅读全文
posted @ 2017-10-23 12:09 bonelee 阅读(4851) 评论(1) 推荐(1)
摘要: 摘自:https://zybuluo.com/hanbingtao/note/581764 写得非常好 见原文 长短时记忆网络的思路比较简单。原始RNN的隐藏层只有一个状态,即h,它对于短期的输入非常敏感。那么,假如我们再增加一个状态,即c,让它来保存长期的状态,那么问题不就解决了么?如下图所示: 阅读全文
posted @ 2017-10-23 10:34 bonelee 阅读(23344) 评论(0) 推荐(1)
上一页 1 ··· 194 195 196 197 198 199 200 201 202 ··· 273 下一页