摘要: 动态规划 原问题分解成简单的子问题 最长上升子序列 阅读全文
posted @ 2020-11-04 22:17 Dallon_Peak 阅读(69) 评论(0) 推荐(0)
摘要: Torch.nn.CrossEntropyLoss() 包含激活函数 softmax 阅读全文
posted @ 2020-10-26 16:48 Dallon_Peak 阅读(58) 评论(0) 推荐(0)
摘要: for epoch in range(training_epochs):// 一次epoch一次全部训练完 for i in range(total_batch)://mini-batch每一次更新参数的个数 batch_size = 2 ,shuffle = True.每一次都打乱 阅读全文
posted @ 2020-10-25 21:57 Dallon_Peak 阅读(65) 评论(0) 推荐(0)
摘要: 损失函数:loss = ∑i(w*x + b - yi)2 对于凸函数,有专门的方法可以凸优化,即使是非凸函数也可以使用。 随机梯度算法的目的就是使顺势函数最小化,目前一般使用Adam算法。 Logistic Regression 和 Linear Regression的区别在于加了一个激活函数(s 阅读全文
posted @ 2020-09-21 22:01 Dallon_Peak 阅读(16) 评论(0) 推荐(0)