会员
周边
新闻
博问
闪存
众包
赞助商
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
将者,智、信、仁、勇、严也。
Hi,我是李智华,华为-安全AI算法专家,欢迎来到安全攻防对抗的有趣世界。
博客园
首页
新随笔
联系
订阅
管理
上一页
1
···
66
67
68
69
70
71
72
73
74
···
274
下一页
2021年8月18日
nmap -A 启用操作系统和版本检测,脚本扫描和路由跟踪功能
摘要: nmap -A xx.xx.IP.xx Starting Nmap 7.91 ( https://nmap.org ) at 2021-08-18 10:13 CST Nmap scan report for 39.108.15.161 Host is up (0.075s latency). No
阅读全文
posted @ 2021-08-18 10:23 bonelee
阅读(676)
评论(0)
推荐(0)
2021年8月17日
安全数据集汇总——from安全学术圈 https://secdr.org/
摘要: --> Cyber Data Scientist 汇总的一些安全数据 --> Stratosphere IPS 网络IPS/IDS数据 --> VizSec DataSets 安全可视化会议推荐数据 --> Awesome Sec Data 安全数据集合 --> SecRepo 安全相关数据 -->
阅读全文
posted @ 2021-08-17 17:24 bonelee
阅读(333)
评论(0)
推荐(0)
DNS域传送漏洞——由于DNS服务器配置不当,可能导致攻击者获取某个域(域名)的所有(子域名)记录
摘要: DNS域传送漏洞 目前来看"DNS域传送漏洞"已经很少了。 DNS记录分类 常见的DNS记录有以下几类: A记录 IP地址记录,记录一个域名对应的IP地址 AAAA记录 IPv6地址记录,记录一个域名对应的IPv6地址 CNAME记录 别名记录,记录一个主机的别名 MX记录 电子邮件交换记录,记录一
阅读全文
posted @ 2021-08-17 17:09 bonelee
阅读(598)
评论(0)
推荐(0)
2021年8月8日
判别式模型和生成式模型区别——生成式是直接对数据本身的概率分布建模,判别式就是学习一个分类边界将不同类别区分开,前者是单刀直入、后者是曲线救国
摘要: 在机器学习中,对于有监督学习可以将其分为两类模型:判别式模型和生成式模型。简单地说,判别式模型是针对条件分布建模,而生成式模型则针对联合分布进行建模。 1. 基本概念 假设我们有训练数据(X,Y),X是属性集合,Y是类别标记。这时来了一个新的样本,我们想要预测它的类别。 我们最终的目的是求得最大的条
阅读全文
posted @ 2021-08-08 22:39 bonelee
阅读(1904)
评论(0)
推荐(0)
最大熵模型原理——选择符合所有事实,在其他方面尽可能均匀分布(熵最大)的模型,其实思想很简单,只是数学推导蛋疼
摘要: 1.熵与最大熵原理 熵是随机变量不确定性的度量,不确定性越大,熵值就越大;若随机变量退化成定值,熵为0。均匀分布是“最不确定”的分布 假设离散随机变量X的概率分布为P(x),则其熵为: 联合熵和条件熵 两个随机变量的X,Y的联合分布,可以形成联合熵,用H(X,Y)表示 条件熵H(X|Y) = H(X
阅读全文
posted @ 2021-08-08 21:56 bonelee
阅读(971)
评论(0)
推荐(0)
均匀分布的熵最大——熵增定理,意味着大家都会趋同,成为乌合之众,最终无差异化。。。在企业管理中这是一件恐怖的事情
摘要: 什么是熵(Entropy) 简单来说,熵是表示物质系统状态的一种度量,用它老表征系统的无序程度。熵越大,系统越无序,意味着系统结构和运动的不确定和无规则;反之,,熵越小,系统越有序,意味着具有确定和有规则的运动状态。熵的中文意思是热量被温度除的商。负熵是物质系统有序化,组织化,复杂化状态的一种度量。
阅读全文
posted @ 2021-08-08 21:25 bonelee
阅读(2538)
评论(0)
推荐(0)
2021年8月6日
凸图形——就是六边形这种,向五角星就是非凸的
摘要: 凸图形 凸边形就是把一个图形的一个边向两边延伸 而原图形都在延伸直线的一侧 要求是每一个边延伸都是如此 与此相对应的是凹边形 凸图形在代数中的地位很重要,主要体现在它的分析或代数性质,并且已被应用到诸如数理经济学等领域。凸形的几何性质研究比较落后,也最为复杂。本词条将就其定义、判定、性质作一些讨论。
阅读全文
posted @ 2021-08-06 12:08 bonelee
阅读(3463)
评论(0)
推荐(0)
人工智能 kmeans和som的简单比较——线性可分的数据还可以,但都不擅长处理圆分割数据,因为用的欧几里得距离?
摘要: 人工智能 kmeans和som的简单比较 cokecoffe · 2020年02月13日 · 2 次阅读 聚类分析是一种常用的分析方法,其中最为常用的 KMeans。最近也看到一个 KMeans 的改进方法,是加入 som 竞争神经网络进行训练。 竞争神经网络是一个仿照人脑神经元的启发而发明的,在这
阅读全文
posted @ 2021-08-06 11:49 bonelee
阅读(1717)
评论(1)
推荐(0)
聚类算法:ISODATA算法 ——kmeans算法升级版,不知道k也可以,但是需要你自己指定其他参数也很蛋疼
摘要: 当K值的大小不确定时,可以使用ISODATA算法。ISODATA的全称是迭代自组织数据分析法。在K均值算法中,聚类个数K的值需要预先人为地确定,并且在整个算法过程中无法更改。而当遇到高维度、海量的数据集时,人们往往很难准确地估计出K的大小。ISODATA算法就是针对这个问题进行了改进,它的思想也很直
阅读全文
posted @ 2021-08-06 11:03 bonelee
阅读(744)
评论(0)
推荐(0)
k-means++算法选择初始seeds的基本思想就是:初始的聚类中心之间的相互距离要尽可能的远——sklearn内置该算法
摘要: k-means ++介绍:k-means++算法选择初始seeds的基本思想就是:初始的聚类中心之间的相互距离要尽可能的远。算法步骤:(1)从输入的数据点集合中随机选择一个点作为第一个聚类中心(2)对于数据集中的每一个点x,计算它与最近聚类中心(指已选择的聚类中心)的距离D(x)(3)选择一个新的数
阅读全文
posted @ 2021-08-06 10:59 bonelee
阅读(780)
评论(0)
推荐(0)
上一页
1
···
66
67
68
69
70
71
72
73
74
···
274
下一页
公告