Loading

摘要: \(Backpropagation\)(反向传播) Gradient Descent 实际上Neural Network的Gradient Descent 并没有与一般的Gradient Descent 不一样,只是维度太大,一般都有上百万维 基础知识 链式求导 \[ y = g(x) \ \ \ 阅读全文
posted @ 2021-03-24 22:06 MushRain 阅读(52) 评论(0) 推荐(0)
摘要: Deep Learning 前沿 $Deep\ Learning$的使用频次几乎呈现指数级增长 表明$Deep\ Learning$已经越来越强大,运用面也越来越广了 主要步骤 Neural Network 把多个神经元连接起来就是神经网络 连接方式 神经网络的连接方式的不同导致不同的神经网络结构 阅读全文
posted @ 2021-03-24 22:04 MushRain 阅读(52) 评论(0) 推荐(0)