上一页 1 ··· 11 12 13 14 15 16 17 18 19 ··· 22 下一页
摘要: 很多人说读大专,大学或者是研究生,没有用 以前我也觉得如此。后来明白的一个道理。没用的不是学生时期,而是该自己去做的事情,自己有没有去做。再去评判学生时期有没有用。该做的实验没有做,该做的作业没有做。一切事情都在等着他自己慢慢的走向你,然而本领永远不会随着时间而自己赠于你。应该是用宝贵的时间去获取这 阅读全文
posted @ 2022-12-04 11:25 辛宣 阅读(155) 评论(0) 推荐(0)
摘要: 普通情况可以用 r.raw,在初始请求中设置 stream=True,来获取服务器的原始套接字响应 r = requests.get(url, stream=True) r.raw.read(10) 当流下载时,用Response.iter_content或许更方便些。requests.get(ur 阅读全文
posted @ 2022-12-03 11:32 辛宣 阅读(272) 评论(0) 推荐(0)
摘要: 查看源代码 面对这种禁止看页面源码的初级手段,一个优雅的通用解决办法是,在连接前加个view-source: view-source:https://www.dmzj.com/view/yaoshenji/41917.html BUT使用view-source:方法,就是看页面源码,并不管动态加载的 阅读全文
posted @ 2022-12-03 11:03 辛宣 阅读(43) 评论(0) 推荐(0)
摘要: 单层感知机 Delta学习规则 BP(Back Propagation)神经网络 阅读全文
posted @ 2022-10-30 16:22 辛宣 阅读(30) 评论(0) 推荐(0)
摘要: 非线性逻辑回归的代码: 关于 PolynomialFeatures PolynomialFeatures 多项式特征,设置不同的degree,可以变的更拟合,如图 scale = False 数据是否需要标准化 preprocessing.scale(X)直接标准化数据X np.r—和np.c # 阅读全文
posted @ 2022-10-19 12:06 辛宣 阅读(57) 评论(0) 推荐(0)
摘要: jupyter里查看函数用法: 点到函数,再shift+tab 运行一下函数 shift+enter 逻辑回归的梯度下降的代码 numpy.concatenate()函数 np.concatenate((a,b),axis=1) #axis=1表示对应行的数组进行拼接,横着加 np.concaten 阅读全文
posted @ 2022-10-18 16:50 辛宣 阅读(43) 评论(0) 推荐(0)
摘要: 一元线性回归 sklearn一元线性回归代码: https://github.com/xinxuann/MachineLearningNote/blob/main/sklearn-%E4%B8%80%E5%85%83%E7%BA%BF%E6%80%A7%E5%9B%9E%E5%BD%92.ipynb 阅读全文
posted @ 2022-10-17 16:58 辛宣 阅读(100) 评论(0) 推荐(0)
摘要: LASSO 正则化(惩罚函数)是一阶的函数 还能看到哪些是不重要的特征 LASSO代码: 直接用sklearn的 https://github.com/xinxuann/MachineLearningNote/blob/main/sklearn-LASSO.ipynb 弹性网(Elastic Net 阅读全文
posted @ 2022-10-17 16:48 辛宣 阅读(257) 评论(0) 推荐(0)
摘要: 岭回归 推导过程 总结: sklearn代码: https://github.com/xinxuann/MachineLearningNote/blob/main/sklearn-%E5%B2%AD%E5%9B%9E%E5%BD%92.ipynb 标准方程法-岭回归代码: https://githu 阅读全文
posted @ 2022-10-17 16:43 辛宣 阅读(198) 评论(0) 推荐(0)
摘要: 过拟合 从而有了正则化 正则化 阅读全文
posted @ 2022-10-17 16:35 辛宣 阅读(28) 评论(0) 推荐(0)
上一页 1 ··· 11 12 13 14 15 16 17 18 19 ··· 22 下一页