随笔分类 -  机器学习深度学习

摘要:1.分治法不能用 局部点干扰性大 2.梯度下降 3. 随机梯度下降 随机梯度下降法(Stochastic Gradient Descent, SGD):由于批量梯度下降法在更新每一个参数时,都需要所有的训练样本,所以训练过程会随着样本数量的加大而变得异常的缓慢。随机梯度下降法正是为了解决批量梯度下降 阅读全文
posted @ 2023-10-31 09:49 亚1918 阅读(82) 评论(0) 推荐(0)
摘要:每日整理合集 10.28 1. https://tangshusen.me/Dive-into-DL-PyTorch/#/ 2.https://blog.csdn.net/m0_51366201/article/details/130227906 3.https://blog.csdn.net/we 阅读全文
posted @ 2023-10-28 14:00 亚1918 阅读(11) 评论(0) 推荐(0)