摘要: 基础算法 假设我们有两个字符串:,每个字符串由A C G T四个字母组成。 在两个字符串上,都有三种可能的编辑操作(突变): 删除某个字符 在某个位置插入字符 改变某个字符 每一个编辑操作都有惩罚值。用D(R,B)表示字符串R和B的最小编辑距离(总惩罚值)。 在这里,我们将三种编辑操作的惩罚值都设为 阅读全文
posted @ 2022-09-27 18:13 byxiaobai 阅读(175) 评论(0) 推荐(0)
摘要: 解决方法:把CUDA的bin目录下的dll文件全部复制到libmxnet.dll所在的目录 问题原因:libmxnet.dll引用了一些CUDA的dll,但是找不到路径。 阅读全文
posted @ 2022-08-27 14:23 byxiaobai 阅读(461) 评论(0) 推荐(0)
摘要: 应对过拟合:权重衰减与均等范数约束条件 Outline 在神经网络中,常常出现过拟合问题。本文介绍了权重衰减以及其背后的原理(优化GBR上界),并在最后对其他应对过拟合的方式进行了讨论。 Introduction 在深度学习中,常常出现过拟合问题,导致模型的效能下降。 为了解决这个问题,这里提出了几 阅读全文
posted @ 2022-08-25 14:35 byxiaobai 阅读(147) 评论(0) 推荐(0)
摘要: 多层感知机 Outline 传统的线性神经网络存在一个问题:不论增加任何数量的节点,最终效果等价于一个节点。本篇文章为这个问题提供了一个可能的解决方案:对于部分节点,使用非线性函数代替线性函数。 Method 1.ReLU函数(实际使用较多):只保留正数。 2.sigmoid函数:将值映射到0到1之 阅读全文
posted @ 2022-08-23 21:41 byxiaobai 阅读(82) 评论(0) 推荐(0)
摘要: 前言 softmax回归为一种分类模型。 基本原理 由于softmax回归也是一种线性叠加算法,且需要输出离散值。 很自然地想到,可以取值最大的输出为置信输出。更进一步想到,如果有三个人A、B、C分别说自己的正确程度为100、200、200,那么在三个人说的话都一样正确的情况下,可以考虑累加,那么A 阅读全文
posted @ 2022-08-23 20:53 byxiaobai 阅读(187) 评论(0) 推荐(0)
摘要: 引言 有时候,可以用线性模型模拟数据的分布情况。比如房价与面积之间的关系。 示例 假设价格只取决于房屋状况的两个因素,即面积(平方米)和房龄(年)。 有了这个函数之后,我们要考虑的就是怎样让这个函数的参数调整为接近实际情况的值。 (①)引言 首先可以想到随机生成。让随机生成值,最后保留表现最好的。 阅读全文
posted @ 2022-08-21 21:49 byxiaobai 阅读(42) 评论(0) 推荐(0)
摘要: 丢弃法是一种降低过拟合的方法,具体过程是在神经网络传播的过程中,随机“沉默”一些节点。这个行为让模型过度贴合训练集的难度更高。 添加丢弃层后,训练速度明显上升,在同样的轮数下测试集的精度提高。如果不加入丢弃层,练习一百多轮也只有0.90左右的测试集正确率。 阅读全文
posted @ 2022-08-15 17:53 byxiaobai 阅读(377) 评论(0) 推荐(0)
摘要: 1.进程空间 概念:软件“生活”的内存空间,好比人类的住房。 2.EPROCESS 概念:描述进程的"档案",其中有DebugPort、ExceptionPort等信息。 用法:!process 0 0的执行结果中,每个进程有三行信息,第一行信息中,PROCESS后面的地址指向的便是进程的EPROC 阅读全文
posted @ 2022-05-29 11:48 byxiaobai 阅读(50) 评论(0) 推荐(0)
摘要: 目录/参考资料:https://www.cnblogs.com/railgunRG/p/14412321.html 《加密与解密》P670中,介绍了检查程序是否被调试的第二种方法:查看进程PEB的NtGlobalFlag标记。 首先打开我们的win7x64虚拟机和windbg,第四节中制作了一个主动 阅读全文
posted @ 2021-02-26 13:02 byxiaobai 阅读(1065) 评论(0) 推荐(0)
摘要: 目录/参考资料:https://www.cnblogs.com/railgunRG/p/14412321.html asm文件设置 在vs x64中无法使用_asm关键字,需要使用.asm文件。 按第一节的内容创建好项目后,右键Resource Files,添加->新建项->头文件(.h),将名称改 阅读全文
posted @ 2021-02-25 19:53 byxiaobai 阅读(816) 评论(0) 推荐(0)