摘要:
为什么在CNN等结构中将原先的sigmoid、tanh换成ReLU可以取得比较好的效果? 为什么在RNN中,将tanh换成ReLU不能取得类似的效果? 链接 阅读全文
posted @ 2019-05-19 21:59
TMatrix52
阅读(95)
评论(0)
推荐(0)
2019年5月19日
2019年4月10日
2019年3月11日
2019年2月14日
2019年2月1日
2019年1月22日
2018年12月4日
2018年11月6日
2018年10月29日