摘要: 2019年入驻github以及博客园 在发现用github的issue写博客稍微有些奇怪后决定开辟这个更适合写博的空间 2019/4/1 目前大一,计算机专业,尚未分流 更多的时间花在了数据结构与算法,Leetcode,机器学习这几个方面 "LOSKI的Github" 阅读全文
posted @ 2019-04-01 22:24 LOSKI 阅读(207) 评论(0) 推荐(0) 编辑
摘要: 在进行相关平台的练习过程中,由于要自己导入数据集,而导入方法在市面上五花八门,各种库都可以应用,在这个过程中我准备尝试torchvision的库dataset torchvision.datasets.ImageFolder 简单应用起来非常简单,用torchvision.datasets.Imag 阅读全文
posted @ 2019-11-07 21:12 LOSKI 阅读(7207) 评论(0) 推荐(0) 编辑
摘要: 激活函数 神经网络的每个神经元输出都要经过激活函数的处理,并且激活函数都要选择非线性的函数(不是一条直线) 原因也比较简单 如果用线性函数来处理的话(类似f(x)=ax+b),经过多个神经元后,这些处理可以统一合为一个线性处理,也就失去了神经网络的多层的意义了。 都要用激活函数的原因也类似,毕竟神经 阅读全文
posted @ 2019-04-20 22:18 LOSKI 阅读(289) 评论(0) 推荐(0) 编辑
摘要: 2019/4/23更新 下文中的正确率极高是建立在仅有50组训练数据的基础上的,十分不可靠。建议使用提供的另一个生成训练集的generate_all函数,能产生所有可能结果,更加可靠。 2019/4/20 二层BP神经网络 但是仍有部分在公式上的不明了,但是其运作方式还是很简单的,先简单解析我的代码 阅读全文
posted @ 2019-04-20 16:37 LOSKI 阅读(1390) 评论(0) 推荐(0) 编辑
摘要: 由于上一例的实现中只针对了离散数据,为了扩充处理范围,我实现了一下对线性数据的简单处理,在其中我选择用中位数作为指标,平均数、众数等等其他数据在我看来异曲同工,最终也都会有较相似的结构。 求连续数据的香农熵 与离散数据的处理极其相似,不过在我看来使用上并不会太多,毕竟我们在分类的时候一般不会还是在用 阅读全文
posted @ 2019-04-11 18:21 LOSKI 阅读(1517) 评论(1) 推荐(0) 编辑
摘要: 核心思想: 样本集D,属性集A 相关概念及公式 共有D组数据 K表示数据的某一种属性的一种样式,如西瓜色泽的:浅白,青绿,乌黑。 表示某一种属性的第k个取值所占的比例 信息熵表示当前计算属性的纯度,Ent(D)越小,D纯度越高。 信息熵(又称香农熵): 信息增益表示用数据的某一种属性来划分后所获的“ 阅读全文
posted @ 2019-04-08 21:48 LOSKI 阅读(214) 评论(0) 推荐(0) 编辑
摘要: 决策树的实现太...繁琐了。 如果只是接受他的原理的话还好说,但是要想用代码去实现比较糟心,目前运用了《机器学习实战》的代码手打了一遍,决定在这里一点点摸索一下该工程。 实例的代码在使用上运用了香农熵,并且都是来处理离散数据的,因此有一些局限性,但是对其进行深层次的解析有利于对于代码的运作,pyth 阅读全文
posted @ 2019-04-08 21:46 LOSKI 阅读(1837) 评论(0) 推荐(0) 编辑
摘要: 2019/3/30 二元线性回归——矩阵公式法 _又名:对于python科学库的糟心尝试_ 二元线性回归严格意义上其实不过是换汤不换药,我对公式进行推导,其实也就是跟以前一样的求偏导并使之为零,并且最终公式的严格推导我大概也只能说是将将理解,毕竟最初的矩阵一开始都不太清楚应该是什么样子的,其中,Co 阅读全文
posted @ 2019-04-01 22:33 LOSKI 阅读(7378) 评论(3) 推荐(0) 编辑
摘要: 2019/3/25 一元线性回归——梯度下降/最小二乘法 _又名:一两位小数点的悲剧_ 感觉这个才是真正的重头戏,毕竟前两者都是更倾向于直接使用公式,而不是让计算机一步步去接近真相,而这个梯度下降就不一样了,计算机虽然还是跟从现有语句/公式,但是在不断尝试中一步步接近目的地。 简单来说,梯度下降的目 阅读全文
posted @ 2019-04-01 22:17 LOSKI 阅读(2285) 评论(0) 推荐(0) 编辑
摘要: 2019/3/25 真的,当那个图像出现的时候,我真的感觉太美了。 或许是一路上以来自我的摸索加深的我对于这个模型的感受吧。 二次函数拟合——最小二乘法公式法 与线性回归相似,对二次函数进行拟合某种意义上也只是加了一个函数,虽然求解的方程变得更加繁琐,需要准备的变量也增加到了七个。 思路有借鉴于: 阅读全文
posted @ 2019-04-01 22:16 LOSKI 阅读(3060) 评论(0) 推荐(0) 编辑