上一页 1 ··· 4 5 6 7 8 9 10 11 12 下一页
摘要: optm.adam 待办https://www.cnblogs.com/dylancao/p/9878978.html这个优化包理解求导过程,来理解神经网络。 阅读全文
posted @ 2020-02-25 21:57 程序员成长 阅读(145) 评论(0) 推荐(0)
摘要: 三维数据曲面图 season绘图 panda绘图 待办enter description here转化成网格坐标season可以让绘图更美观panda绘图可以直接根据panda数据绘制图直接plot就行,简单,直接在方法plot后边加上要调整的参数就行了 阅读全文
posted @ 2020-02-25 14:47 程序员成长 阅读(561) 评论(0) 推荐(0)
摘要: 常用统计分析python包开源学习代码 numpy pandas matplotlib 待办https://github.com/zmzhouXJTU/Python-Data-Analysis 阅读全文
posted @ 2020-02-25 14:31 程序员成长 阅读(223) 评论(0) 推荐(0)
摘要: numpy特性 待办可获取最小值最大值或者排序等操作的索引,然后通过索引取得对应值或者对应值的序列按行按列求和、按行按列求积方差等等统计函数使用enter description hereenter description here 阅读全文
posted @ 2020-02-25 14:20 程序员成长 阅读(242) 评论(0) 推荐(0)
摘要: numpy广播机制,取特定行、特定列的元素 的高级索引取法enter description hereenter description here 阅读全文
posted @ 2020-02-25 14:16 程序员成长 阅读(306) 评论(0) 推荐(0)
摘要: 对于交叉熵计算误差的理解和计算方式、交叉熵怎么混合所有的批次训练数据 待办https://blog.csdn.net/qq_22210253/article/details/85222093 阅读全文
posted @ 2020-02-25 10:58 程序员成长 阅读(255) 评论(0) 推荐(0)
摘要: backward的gradient参数的作用 待办https://zhuanlan.zhihu.com/p/29904755https://zhuanlan.zhihu.com/p/29923090 讲的backward 偏导数计算的过程https://medium.com/@zhang_yang/how-pytorch-tensors-backward-accumulates-gradi... 阅读全文
posted @ 2020-02-22 21:22 程序员成长 阅读(517) 评论(1) 推荐(1)
摘要: torch.cat拼接 stack拼接 分块chunk 待办https://blog.csdn.net/qq_39709535/article/details/80803003stack dim理解https://blog.csdn.net/Teeyohuang/article/details/80362756tensor分块https://www.jianshu.com/p/43c16ed2... 阅读全文
posted @ 2020-02-22 15:15 程序员成长 阅读(311) 评论(0) 推荐(0)
摘要: anaconda+pytorch安装(无GPU版本) 待办https://blog.csdn.net/nnUyi/article/details/78471326 阅读全文
posted @ 2020-02-22 14:51 程序员成长 阅读(593) 评论(0) 推荐(0)
摘要: 凡是下载问题,连接失败都和自己本地代理有关需要更改代理服务器本地地址,或者去除代理设置,并关闭代理软件 阅读全文
posted @ 2020-02-22 13:11 程序员成长 阅读(278) 评论(0) 推荐(0)
上一页 1 ··· 4 5 6 7 8 9 10 11 12 下一页