会员
众包
新闻
博问
闪存
赞助商
HarmonyOS
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
lsccc
博客园
首页
新随笔
联系
订阅
管理
2020年8月1日
第二次作业:卷积神经网络 part 1
摘要: 【第一部分】 视频学习心得及问题总结 一:深层网络的局部极小值是非凸的激活函数导致的吗?如果是,为何不用凸激活函数? 1.深层网络的局部极小值主要是多个隐层复合所致。 2.ReLu就是凸激活函数,但多个凸激活函数的复合也不一定是凸的:比如f(x)=exp(-x)在x>0时凸,但f(f(x))就是非凸
阅读全文
posted @ 2020-08-01 16:01 lsccc
阅读(319)
评论(0)
推荐(0)