会员
周边
新闻
博问
闪存
众包
赞助商
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
一瓶二锅头
博客园
首页
新随笔
联系
订阅
管理
2020年8月30日
深度残差收缩网络:一种深度学习的故障诊断方法
摘要: 翻译仅为学习,欢迎转载。 【题目】Deep Residual Shrinkage Networks for Fault Diagnosis【翻译】基于深度残差收缩网络的故障诊断 Abstract (摘要) 【翻译】本文提出了一种新的深度学习方法,即深度残差收缩网络,以增强深度学习方法从强噪声信号中学
阅读全文
posted @ 2020-08-30 09:25 一瓶二锅头
阅读(1491)
评论(0)
推荐(0)
2020年8月4日
[转]请问人工神经网络中的activation function的作用具体是什么?为什么ReLu要好过于tanh和sigmoid function?
摘要: 请问人工神经网络中的activation function的作用具体是什么?为什么ReLu要好过于tanh和sigmoid function? - amaze2的回答 - 知乎 https://www.zhihu.com/question/29021768/answer/1321404391 激活函
阅读全文
posted @ 2020-08-04 11:11 一瓶二锅头
阅读(335)
评论(0)
推荐(0)
2020年7月31日
故障诊断深度学习方法:残差收缩网络
摘要: 残差收缩网络是残差网络的一种改进,其实是残差网络、注意力机制和软阈值函数的集成。 在一定程度上,残差收缩网络的工作原理,可以理解为:通过注意力机制注意到不重要的特征,通过软阈值函数将它们置为零;或者说,通过注意力机制注意到重要的特征,将它们保留下来,加强深度神经网络从含噪声信号中提取有用特征的能力。
阅读全文
posted @ 2020-07-31 21:00 一瓶二锅头
阅读(1074)
评论(0)
推荐(0)
公告