摘要: 题目链接: 原题:http://codeforces.com/problemset/problem/1070/A 翻译过的训练题:https://vjudge.net/contest/361183#problem/A 题目大意: 给你两个正整数p和x,让你求出最小的正整数m,满足m被p整除且m的各数 阅读全文
posted @ 2020-06-28 19:35 KID-yln 阅读(215) 评论(0) 推荐(0) 编辑
摘要: 原题:hdu1312 B: 不要停下来啊 题目描述 丁丁妹因为上山挖大头菜而误打误撞进入了一处古代遗迹,古代遗迹是一个n×m 的迷宫, 丁丁妹所处的位置用'@'标出,'.'表示道路,'#'表示墙壁。 为了逃出迷宫,丁丁妹想知道她最长能在迷宫中走多少格。 我们的目的地根本不重要,只要继续前行就好了,只 阅读全文
posted @ 2020-05-27 21:57 KID-yln 阅读(218) 评论(0) 推荐(0) 编辑
摘要: 在学完了几个重要分布之后,紧接着的内容就是这几个分布的使用,实际上这就是假设检验的过程 其中有一些概念: 分位点和分位数,p值,分布表,置信区间 因为是新概念, 我这种蒻蒻就是看得很不清楚,理解起来总是有点点模糊,很多书上讲得也不怎么清楚,现在搞清楚 参考博客: (假设检验) (t分布) (分位点与 阅读全文
posted @ 2020-05-24 13:35 KID-yln 阅读(4653) 评论(0) 推荐(0) 编辑
摘要: ddl选手又来速成啦orz, 上次是python+布朗运动&几何布朗运动ito过程, 这次是STATA,又要学新语言啦,内心...很复杂呢... 大概就是把这些以及异方差给速成了..... 目标: 完成理论熟悉,推导,理解例题 完成作业的题目 完成期中考试卷的清理 预计时间 2~3.5 天 阅读全文
posted @ 2020-05-20 18:03 KID-yln 阅读(607) 评论(0) 推荐(0) 编辑
摘要: 吴佬在多元线性回归之后, 补充了特征缩放法的优化, 有一些疑问,现在一一解决 为什么在一元的时候不需要,而多元的时候需要? 特征缩放法本质是在对已有样本特征做什么过程? 为什么特征缩放法能够优化?优化在哪里呢? 有哪些特征缩放法?分别有什么特点? 因为个人水平不足, 解释不足够严谨,并没有系统证明, 阅读全文
posted @ 2020-05-09 05:13 KID-yln 阅读(385) 评论(0) 推荐(0) 编辑
摘要: 从一元线性回归到多元线性回归 : 之前讲一元线性回归的时候,梯度下降法,其实就是按照梯度下山, 一步一步地下山, 其中每一步= 梯度*学习率,学习率就是每一步的步长, 而梯度=导数. 相当于,迈出一步,我往下能走多少米 然后以此类推, 多元线性回归的过程过程相当于需要求的估计参数估计量增加了k>1, 阅读全文
posted @ 2020-05-08 10:46 KID-yln 阅读(412) 评论(0) 推荐(0) 编辑
摘要: 点估计: 矩估计,k个参数需要估计,k阶原点中心距存在,分别求样本点1-k阶原点中心距.1-k阶期望值,就是k个参数的估计量 极大似然估计,k个参数需要估计则对应样本点概率,或者密度函数值连乘式子,此为似然函数,该似然函数自变量是需要估计的参数,极大似然,函数复合取对数,然后对参数求导,令偏导都为0 阅读全文
posted @ 2020-05-07 09:53 KID-yln 阅读(764) 评论(0) 推荐(0) 编辑
摘要: 重点标记 阅读全文
posted @ 2020-05-07 08:42 KID-yln 阅读(270) 评论(0) 推荐(0) 编辑
摘要: 没毛病,依照模型拟合 没毛病,否则样本没有无偏性 这个证明主要参考前篇线性回归两个公式推导过程, 最小化残差平方和函数极值存在的充要条件就是存在xi !=E(x),也就是xi是可变的, 又叫做变异性 零条件的意思是随机误差项与x不存在系统/可解释的条件关系, 不然u作为不可观测值会导致模型不可观测, 阅读全文
posted @ 2020-05-07 08:39 KID-yln 阅读(3569) 评论(0) 推荐(0) 编辑
摘要: y=ax+b+e 在这一基础上: 又可以写成, y=ax+b+e, |e|^2=((ax+b)-y)^2 随机干扰项 sigma e^2 和残差平方和有类似的性质? 为什么这里需要这样修正呢?自由度为什么是 n-2 ? 估计量的评估 无偏性需要满足: 无偏性不是要求估计量与总体参数不得有偏差,因为这 阅读全文
posted @ 2020-05-07 06:40 KID-yln 阅读(8077) 评论(0) 推荐(0) 编辑