摘要: 转自 https://blog.csdn.net/Felaim/article/details/100516282 只截取其中用过的一种方法: 因为Linux更新都是为了修复之前内核的bug,提供一些新的特性,如果一直使用比较旧的内核,还是治标不治本,所以LZ有找到了一种方法,在使用新内核的同时,也 阅读全文
posted @ 2020-03-02 14:19 过客冲冲 阅读(960) 评论(0) 推荐(0) 编辑
摘要: 转自 https://www.csdn.net/article/2015 07 30/2825340 简介: Docker通过namespace将容器与主机上的网络和运行环境进行了隔离,默认情况下,在容器中运行带界面的软件在外部是看不到的。在这个分享中,将介绍通过共享X11套接字让外部主机显示容器中 阅读全文
posted @ 2019-03-19 09:45 过客冲冲 阅读(4050) 评论(0) 推荐(0) 编辑
摘要: ##关于boost算法--- boost算法是基于[PAC学习理论](http://blog.pluskid.org/?p=821)(probably approximately correct)而建立的一套集成学习算法(ensemble learning)。其根本思想在于通过多个简单的弱分类器,... 阅读全文
posted @ 2015-07-04 14:03 过客冲冲 阅读(15210) 评论(1) 推荐(2) 编辑
摘要: 前些时间在手机上下了个数独游戏(Sudoku),用以在火车上消遣时间,游戏设置了easy,medium, hard和very hard4个难度等级。一开始玩easy的,大概6-7分钟,后来试着来个hard,竟然花了30分钟,太被打击了,后来就想着来段code来节省点脑细胞。##数据游戏规则--- ... 阅读全文
posted @ 2015-05-30 22:18 过客冲冲 阅读(1375) 评论(8) 推荐(1) 编辑
摘要: ##Kmeans算法简介--- 作为无监督学习领域的一种简单的算法,Kmeans在实际应用中却是相当广泛的。其过程是通过不断交替迭代求得最优的类中心以及每个样本所属类别,具体步骤如下:>1. 确定类别个数k>2. 随机初始化k个类的中心,分别为\(\mu_1, \mu_2, …, \mu_k \)... 阅读全文
posted @ 2015-05-27 20:15 过客冲冲 阅读(1029) 评论(2) 推荐(1) 编辑
摘要: 许久之前,已对国内IT业的一些问题颇有看法,而今又恰逢360与AV-C的纠缠,实在忍不住要发发牢骚。IT在中国,发展不过二十来年,却以迅雷之速横扫各个领域,令人感叹,此成就是不可否认的;然而,发展到今天,IT行业内的两极分化也越来越明显,几家巨型企业几乎足以垄断国内IT行业的各个方面,但是他们会... 阅读全文
posted @ 2015-05-05 21:18 过客冲冲 阅读(4367) 评论(58) 推荐(30) 编辑
摘要: - [前言](#1)- [训练样本准备](#2)- [特征选择](#3)- [模型选择](#4)- [交叉验证](#5)- [结语](#6) ##前言--- 学习理论是一系列的理论与方法,用于保证训练出的模型能高效稳定工作。机器学习算法主要有4个阶段:1. **训练样本准备**。充分有效的训... 阅读全文
posted @ 2015-04-29 20:23 过客冲冲 阅读(1132) 评论(0) 推荐(0) 编辑
摘要: 当初由于一些原因以及兴趣,学习了一段时间软件逆向,对于软件加密解密有了点粗略的了解。而后看到某些同学辛辛苦苦的搞出个软件,自己费心费力去加密,但搞出来后往往能被秒破,实不忍心。今天大概总结下一些基本的软件加密手段,以供参考,高手勿喷。关于解密 软件解密主要有2个层次,一个俗称爆破,就是不分析加... 阅读全文
posted @ 2015-04-22 19:23 过客冲冲 阅读(1898) 评论(18) 推荐(8) 编辑
摘要: 朴素贝叶斯(Naive Bayes)适用于离散特征的分类问题,对于连续问题则需将特征离散化后使用。朴素贝叶斯有多元伯努利事件模型和多项式事件模型,在伯努利事件模型中,特征每一维的值只能是0或1,而多项式模型中特征每一维的值可取0到N之间的整数,因此伯努利模型是多项式模型的一种特例,下面的推导就直... 阅读全文
posted @ 2015-04-21 15:58 过客冲冲 阅读(2101) 评论(0) 推荐(0) 编辑
摘要: 梯度下降法存在的问题 梯度下降法的基本思想是函数沿着其梯度方向增加最快,反之,沿着其梯度反方向减小最快。在前面的线性回归和逻辑回归中,都采用了梯度下降法来求解。梯度下降的迭代公式为:\(\begin{aligned} \theta_j=\theta_j-\alpha\frac{\partial\;... 阅读全文
posted @ 2015-04-20 15:54 过客冲冲 阅读(3318) 评论(3) 推荐(2) 编辑