摘要: hyperparameters 超参数 Gradient Descent 梯度下降算法 先选一个初始的参数,W 、b,计算θ0对你的loss function的Gradient,也就是计算每一个network里面的参数,w1、w2、b1、b2......等等。对你的L(θ0)的偏微分,计算出这个东西 阅读全文
posted @ 2023-05-31 20:42 翻斗花园小美Q 阅读(13) 评论(0) 推荐(0)