摘要: GAN 原理: ​GAN 的主要灵感来源于博弈论中零和博弈的思想,应用到深度学习神经网络上来说,就是通过生成网络 G(Generator)和判别网络 D(Discriminator)不断博弈,进而使 G 学习到数据的分布,如果用到图片生成上,则训练完成后,G 可以从一段随机数中生成逼真的图像。 G 阅读全文
posted @ 2021-12-23 15:40 贵志 阅读(534) 评论(0) 推荐(0) 编辑
摘要: Gradient Descent ​梯度下降算法是通过沿着目标函数 J(θ) 的梯度(一阶导数)相反方向来不断更新模型参数来到达目标函数的极小值点(收敛),学习率为η。当目标函数具有多个参数,则使用相应的偏导 \[ 若目标函数为 J(\Theta)且\Theta = (\theta_1, \thet 阅读全文
posted @ 2021-12-23 15:18 贵志 阅读(93) 评论(0) 推荐(0) 编辑
摘要: EfficientNet 单独适当增大深度、宽度或分辨率都可以提高网络的精确性,但随着模型的增大,其精度增益却会降低。此外,这三个维度并不是独立的(如:高分辨率图像需要更深的网络来获取更细粒度特征等),需要我们协调和平衡不同尺度的缩放,而不是传统的一维缩放。EfficientNet 的设想就是能否设 阅读全文
posted @ 2021-12-23 15:01 贵志 阅读(1611) 评论(0) 推荐(1) 编辑