摘要: 非线性激活函数对深度神经网络的成功至关重要,选择合适的激活函数可以显著影响其性能。大多数网络使用固定的激活函数(例如,ReLU、GELU等),这种选择可能限制了它们的表达能力。此外,不同的层可能从不同的激活函数中受益。因此,基于可训练激活函数的兴趣日益增加。 论文提出了一种基于有效微分同胚变换(称为 阅读全文
posted @ 2024-10-17 12:17 晓飞的算法工程笔记 阅读(261) 评论(0) 推荐(0)