会员
周边
新闻
博问
AI培训
云市场
所有博客
当前博客
我的博客
我的园子
账号设置
简洁模式
...
退出登录
注册
登录
Xlgd notes
上一页
1
2
3
下一页
信息的表示和处理(整数部分)
摘要: 这里通过分析一个练习题来总结: 考虑下列代码,这段代码试图计算数组a中所有元素的和,其中元素的数量由参数length给出。 当参数length等于0时,运行这段代码应该返回0.0。但实际上,运行时会遇到一个内存错误。请解释为什么会发生这样的情况,并且说明如何修改代码。 解: 首先我们发现参数leng
阅读全文
posted @ 2020-04-03 22:20 Xlgd
阅读(409)
评论(0)
推荐(0)
编辑
实现一个简单的解释器(6)
摘要: 译自:https://ruslanspivak.com/lsbasi part6/ (已获得作者授权) 今天,我们通过将带括号的表达式添加到语法,并实现一个能够计算任意深度嵌套表达式的解释器来结束对算术表达式的讨论。 让我们开始吧! 首先,让我们修改语法以支持括号内的表达式,正如在第5部分中所记得的
阅读全文
posted @ 2020-03-04 21:36 Xlgd
阅读(711)
评论(0)
推荐(0)
编辑
实现一个简单的解释器(5)
摘要: 译自:https://ruslanspivak.com/lsbasi part5/ (已获得作者授权) 你如何处理和了解像创建解释器或编译器这样复杂的事情?在开始时,一切看上去都像是一团乱七八糟的纱线,你需要解开缠结才能得到完美的球。 到达那里的方法是将它解开一个线,一次解开一个结。不过有时候,你可
阅读全文
posted @ 2020-03-03 16:36 Xlgd
阅读(1035)
评论(0)
推荐(1)
编辑
实现一个简单的解释器(4)
摘要: 译自:https://ruslanspivak.com/lsbasi part4/ (已获得作者授权,个别语句翻译的不到位,我会将原句跟在后边作为参考) 你是在被动地学习这些文章中的材料还是在积极地实践它?希望你一直在积极练习。 孔子 曾经说过: “闻之我也野。” “视之我也饶。” “行之我也明。”
阅读全文
posted @ 2020-03-02 18:50 Xlgd
阅读(1036)
评论(0)
推荐(0)
编辑
实现一个简单的解释器(3)
摘要: 译自:https://ruslanspivak.com/lsbasi part3/ (已获得作者授权) 我今天早上醒来,心想:“为什么我们学习新技能如此困难?” 我不认为这仅仅是因为不够努力,我认为原因之一可能是我们花费大量时间和精力来通过阅读和观看获取知识,而没有足够的时间通过实践将知识转化为技能
阅读全文
posted @ 2020-03-01 19:47 Xlgd
阅读(758)
评论(0)
推荐(1)
编辑
实现一个简单的解释器(2)
摘要: 译自:https://ruslanspivak.com/lsbasi part2/ (已获作者授权) 在他们的著作《有效思维的五个要素》(The 5 Elements of Effective Thinking)中,Burger和Starbird分享了一个故事,讲述了他们如何观察国际知名的小号演奏家
阅读全文
posted @ 2020-03-01 12:00 Xlgd
阅读(941)
评论(0)
推荐(0)
编辑
实现一个简单的解释器(1)
摘要: 译自:https://ruslanspivak.com/lsbasi part1/ (已获作者授权) “如果你不知道编译器的工作方式,那么你将不知道计算机的工作方式。如果你不能100%确定是否知道编译器的工作方式,那么你将不知道它们的工作方式。” ——史蒂夫·耶格 无论你是新手还是经验丰富的软件开发
阅读全文
posted @ 2020-03-01 01:05 Xlgd
阅读(3690)
评论(1)
推荐(3)
编辑
python机器学习——正则化
摘要: 我们在训练的时候经常会遇到这两种情况: 1、模型在训练集上误差很大。 2、模型在训练集上误差很小,表现不错,但是在测试集上的误差很大 我们先来分析一下这两个问题: 对于第一个问题,明显就是没有训练好,也就是模型没有很好拟合数据的能力,并没有学会如何拟合,可能是因为在训练时我们选择了较少的特征,或者是
阅读全文
posted @ 2020-02-18 15:21 Xlgd
阅读(1697)
评论(0)
推荐(0)
编辑
python机器学习——逻辑回归
摘要: 我们知道感知器算法对于不能完全线性分割的数据是无能为力的,在这一篇将会介绍另一种非常有效的二分类模型——逻辑回归。在分类任务中,它被广泛使用 逻辑回归是一个分类模型,在实现之前我们先介绍几个概念: 几率(odds ratio): $$ \frac {p}{(1 p)} $$ 其中p表示样本为正例的概
阅读全文
posted @ 2019-11-18 10:29 Xlgd
阅读(549)
评论(0)
推荐(0)
编辑
python机器学习——随机梯度下降
摘要: 上一篇我们实现了使用梯度下降法的自适应线性神经元,这个方法会使用所有的训练样本来对权重向量进行更新,也可以称之为批量梯度下降(batch gradient descent)。假设现在我们数据集中拥有大量的样本,比如百万条样本,那么如果我们现在使用批量梯度下降来训练模型,每更新一次权重向量,我们都要使
阅读全文
posted @ 2019-11-13 22:00 Xlgd
阅读(641)
评论(0)
推荐(0)
编辑
上一页
1
2
3
下一页
导航
博客园
首页
联系
订阅
管理