2020年8月1日
摘要: 【第一部分】 视频学习心得及问题总结 一:深层网络的局部极小值是非凸的激活函数导致的吗?如果是,为何不用凸激活函数? 1.深层网络的局部极小值主要是多个隐层复合所致。 2.ReLu就是凸激活函数,但多个凸激活函数的复合也不一定是凸的:比如f(x)=exp(-x)在x>0时凸,但f(f(x))就是非凸 阅读全文
posted @ 2020-08-01 16:01 lsccc 阅读(319) 评论(0) 推荐(0)