宋浩《概率论与数理统计》笔记---5.1.2、切比雪夫大数定理
宋浩《概率论与数理统计》笔记---5.1.2、切比雪夫大数定理
一、总结
一句话总结:
变量均值收敛于期望均值
1、依概率收敛?
收敛就是不断逼近
依概率收敛就是主体趋势还是不断逼近,但是时不时就有几个点崩出来,但是不影响整体节奏
二、内容在总结中
博客对应课程的视频位置:
我的旨在学过的东西不再忘记(主要使用艾宾浩斯遗忘曲线算法及其它智能学习复习算法)的偏公益性质的完全免费的编程视频学习网站:
【读书编程笔记】fanrenyi.com;有各种前端、后端、算法、大数据、人工智能等课程。
版权申明:欢迎转载,但请注明出处
一些博文中有一些参考内容因时间久远找不到来源了没有注明,如果侵权请联系我删除。
AI交流资料群:753014672