摘要:
1. 学习率调整 https://www.cnblogs.com/kailugaji/p/11230474.html function lr = fcn(t,Lr_max,Lr_min,decay_steps) n=floor(t/decay_steps); cosine_decay = 0.5 * 阅读全文
posted @ 2022-07-12 18:26
Real_Yuan
阅读(189)
评论(0)
推荐(0)
摘要:
Batch gradient descent,批梯度下降 第一种,遍历全部数据集算一次损失函数,然后算函数对各个参数的梯度,更新梯度。 这种方法每更新一次参数都要把数据集里的所有样本都看一遍,计算量开销大,计算速度慢,不支持在线学习. 随机梯度下降,stochastic gradient desce 阅读全文
posted @ 2022-07-12 15:15
Real_Yuan
阅读(322)
评论(0)
推荐(0)
摘要:
静态变量 一般的在函数中定义的变量,当函数执行完毕,系统会释放变量所占有的内存, 当再次访问该函数的时候,系统会重新分配内存给该变量,那么这就导致上面所提到的情况 ,每个simulink仿真步长下都会丢失上一个步长所得到的matlab function中的参数数据。 所以我们此时需要使用静态变量的概 阅读全文
posted @ 2022-07-12 13:07
Real_Yuan
阅读(89)
评论(0)
推荐(0)
摘要:
选择仿真算法: 仿真算法是求常微分方程、传递函数、状态方程解的数值计算方法 Variable Step:可变步长算法,在仿真过程中可以自动调 整步长,并通过减小步长来提高计算的精度 Fixed Step:固定步长类算法,在仿真过程中采取基准采样 时间作为固定步长 一般而言,使用 变步长的自适应算法 阅读全文
posted @ 2022-07-12 13:04
Real_Yuan
阅读(69)
评论(0)
推荐(0)
