Back_Ward

博客园 首页 联系 订阅 管理

2019年1月29日

摘要: 逻辑回归: 本章内容主要讲述简单的逻辑回归:这个可以归纳为二分类的问题。 逻辑,非假即真。两种可能,我们可以联想一下在继电器控制的电信号(0 or 1) 举个栗子:比如说你花了好几个星期复习的考试(通过 or 失败) 哇,那个女孩子长得真好看,你同不同意? 一场NBA,湖人赢了火箭还是输给火箭? 这 阅读全文
posted @ 2019-01-29 19:56 Back_Ward 阅读(338) 评论(0) 推荐(0) 编辑

2019年1月21日

摘要: 线性回归 阅读全文
posted @ 2019-01-21 21:09 Back_Ward 阅读(214) 评论(0) 推荐(0) 编辑

2019年1月16日

摘要: Pytorch给我们提供了自动求导的函数,不用再自己再推导计算梯度的公式了 虽然有了自动求导的函数,但是这里我想给大家浅析一下:深度学习中的一个很重要的反向传播 references:https://en.wikipedia.org/wiki/Chain_rule 我们先来看看什么是chain- r 阅读全文
posted @ 2019-01-16 22:54 Back_Ward 阅读(238) 评论(0) 推荐(0) 编辑

2019年1月15日

摘要: 梯度下降算法: 待优化的损失值为 loss,那么我们希望预测的值能够很接近真实的值 y_pred ≈ y_label 我们的样本有n个,那么损失值可以由一下公式计算得出: 要使得loss的值尽可能的小,才会让预测的值接近于标签值: 这里 arg 是(argument的缩写),数学中我们常常会遇到求最 阅读全文
posted @ 2019-01-15 18:25 Back_Ward 阅读(516) 评论(0) 推荐(0) 编辑

摘要: Pytorch的安装请参考torch的官方文档,传送门:https://pytorch.org/get-started/locally/ 阅读全文
posted @ 2019-01-15 11:32 Back_Ward 阅读(623) 评论(0) 推荐(0) 编辑