会员
周边
新闻
博问
闪存
众包
赞助商
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
Dallon_Peak
博客园
首页
新随笔
联系
订阅
管理
2020年11月4日
动态规划
摘要: 动态规划 原问题分解成简单的子问题 最长上升子序列
阅读全文
posted @ 2020-11-04 22:17 Dallon_Peak
阅读(69)
评论(0)
推荐(0)
2020年10月26日
Deep Learning2
摘要: Torch.nn.CrossEntropyLoss() 包含激活函数 softmax
阅读全文
posted @ 2020-10-26 16:48 Dallon_Peak
阅读(58)
评论(0)
推荐(0)
2020年10月25日
Deep Learning
摘要: for epoch in range(training_epochs):// 一次epoch一次全部训练完 for i in range(total_batch)://mini-batch每一次更新参数的个数 batch_size = 2 ,shuffle = True.每一次都打乱
阅读全文
posted @ 2020-10-25 21:57 Dallon_Peak
阅读(65)
评论(0)
推荐(0)
2020年9月21日
线性回归:Hello,梯度
摘要: 损失函数:loss = ∑i(w*x + b - yi)2 对于凸函数,有专门的方法可以凸优化,即使是非凸函数也可以使用。 随机梯度算法的目的就是使顺势函数最小化,目前一般使用Adam算法。 Logistic Regression 和 Linear Regression的区别在于加了一个激活函数(s
阅读全文
posted @ 2020-09-21 22:01 Dallon_Peak
阅读(16)
评论(0)
推荐(0)