上一页 1 2 3 4 5 6 ··· 17 下一页
摘要: Chrome浏览器打开网页 下拉使得所有内容得到加载 打印->另存为PDF 如果内容较多较长,可以选择更大的纸张,比如A0 Adobe Acrobat打开下载的pdf 文档->删除页面->指定删除范围->确定 文档->裁剪页面->调整左、右裁剪->选择所有页面->确定 视图->导览面板->内容 选择 阅读全文
posted @ 2020-01-28 22:23 jhc888007 阅读(384) 评论(0) 推荐(0) 编辑
摘要: 梯度下降的各种优化算法下面参考文献表述都很全面了,不在赘述,主要谈谈个人理解 其实对SGD的优化,跟自动控制中的PID思路其实是一样的 P(Propotion)比例项即当前偏差 I(Intergration)积分项即偏差的累积 D(differentiation)微分项即偏差的变化 SGD加入微分项 阅读全文
posted @ 2020-01-27 18:30 jhc888007 阅读(312) 评论(0) 推荐(0) 编辑
摘要: 查看现有jupyter kernel jupyter kernelspec list 在jupyter中新加入kernel(例如在python2下加入python3) python3 -m ipykernel install --user 参考文献: https://www.jianshu.com/ 阅读全文
posted @ 2020-01-04 22:06 jhc888007 阅读(486) 评论(0) 推荐(0) 编辑
摘要: Adaboost的基本思路如下: 给每个样本一个权重,初始化所有样本权重相同 使用当前样本权重,训练一个(简单)模型 根据模型结果,给判断正确的样本降权,给判断错误的样本加权 使用新的样本权重,重新训练(简单)模型,重复若干轮 将若干轮的(简单)模型线性合并为复合模型,作为最终模型 现有包含N个样本 阅读全文
posted @ 2019-12-17 19:15 jhc888007 阅读(217) 评论(0) 推荐(0) 编辑
摘要: 参考文献: https://www.jianshu.com/p/b4f06594d32f https://my.oschina.net/stanleysun/blog/1617727 阅读全文
posted @ 2019-12-16 20:44 jhc888007 阅读(164) 评论(0) 推荐(0) 编辑
摘要: 参考文献: https://www.cnblogs.com/by-dream/p/9403984.html 阅读全文
posted @ 2019-12-16 15:23 jhc888007 阅读(490) 评论(0) 推荐(0) 编辑
摘要: 参考文献: http://blog.sina.com.cn/s/blog_9db078090102whzw.html 阅读全文
posted @ 2019-12-16 15:10 jhc888007 阅读(1020) 评论(0) 推荐(0) 编辑
摘要: 参考文献: https://blog.csdn.net/Forlogen/article/details/90898441 阅读全文
posted @ 2019-12-13 18:09 jhc888007 阅读(172) 评论(0) 推荐(0) 编辑
摘要: 查询到的用法如下 实测,至少在某些版本中,不太好使,临时表还是会生成多次 如果临时表中有一些随机元素,几次生成的还是会不同 参考文献: https://www.cnblogs.com/30go/p/10116815.html 阅读全文
posted @ 2019-11-29 18:33 jhc888007 阅读(1827) 评论(0) 推荐(0) 编辑
摘要: 找了好久找了个足够清晰的版本 https://zybuluo.com/hanbingtao/note/541458 阅读全文
posted @ 2019-11-12 15:10 jhc888007 阅读(144) 评论(0) 推荐(0) 编辑
上一页 1 2 3 4 5 6 ··· 17 下一页