上一页 1 2 3 4 5 6 ··· 26 下一页

2020年5月26日

摘要: https://blog.csdn.net/cindy_1102/article/details/89010066一、既然我们已经对消失梯度问题的本质和它在深度神经网络中的表现有了直观的认识,那么让我们关注一个简单而实用的启发式方法来解决这些问题。 为了解决梯度爆炸的问题,Thomas Mikolo 阅读全文
posted @ 2020-05-26 18:52 TMatrix52 阅读(414) 评论(0) 推荐(0) 编辑
摘要: https://blog.csdn.net/cindy_1102/category_8804737.html 阅读全文
posted @ 2020-05-26 08:25 TMatrix52 阅读(152) 评论(0) 推荐(0) 编辑

2020年5月22日

摘要: https://leetcode-cn.com/problems/combination-sum/solution/xue-yi-tao-zou-tian-xia-hui-su-suan-fa-by-powcai/ 回溯法的解体框架是什么呢,解决一个回溯问题,实际上就是一个决策树的遍历过程。一般来说 阅读全文
posted @ 2020-05-22 11:06 TMatrix52 阅读(135) 评论(0) 推荐(0) 编辑

2020年5月21日

摘要: https://zhuanlan.zhihu.com/p/38296950 阅读全文
posted @ 2020-05-21 11:47 TMatrix52 阅读(341) 评论(0) 推荐(0) 编辑

2020年5月20日

摘要: https://allennlp.org 入门例子:https://github.com/allenai/allennlp-as-a-library-example 阅读全文
posted @ 2020-05-20 15:23 TMatrix52 阅读(117) 评论(0) 推荐(0) 编辑

2020年5月18日

摘要: https://www.jianshu.com/p/093c234bb7ef 对比K-Means算法和GMM的EM解法,我们会发现二者具有很强的相似性。K-Means算法对数据点的聚类进行了“硬分配”,即每个数据点只属于唯一的聚类;而GMM的EM解法则基于后验概率分布,对数据点进行“软分配”,即每个 阅读全文
posted @ 2020-05-18 10:51 TMatrix52 阅读(139) 评论(0) 推荐(0) 编辑

2020年5月17日

摘要: Linux下常用压缩 解压命令和压缩比率对比 阅读全文
posted @ 2020-05-17 11:44 TMatrix52 阅读(199) 评论(0) 推荐(0) 编辑

2020年5月16日

摘要: [LeetCode] 43. Multiply Strings 字符串相乘 #coding=utf8 def cal_str(str1, str2): num1_len = len(str1) num2_len = len(str2) #l1存较小的 l1 = '' l2 = '' if num1_ 阅读全文
posted @ 2020-05-16 16:25 TMatrix52 阅读(131) 评论(0) 推荐(0) 编辑

2020年5月11日

摘要: 思想:facebook 利用GBDT进行特征筛选和组合,进而生成新的离散特征向量,把该特征向量当做LR模型的输入。 什么是GBDT模型: GBDT基本结构是决策树组成的森林,作为集成模型,预测方式是把所有子树的结果加起来,学习方式是梯度提升。 当前子树学习的是:残差 = 目标拟合函数 - 已有森林预 阅读全文
posted @ 2020-05-11 12:02 TMatrix52 阅读(244) 评论(0) 推荐(0) 编辑

2020年5月8日

摘要: https://blog.csdn.net/Cyiano/article/details/74928415 https://ziyubiti.github.io/2016/11/06/gradvanish/ https://blog.csdn.net/qq_25737169/article/deta 阅读全文
posted @ 2020-05-08 22:22 TMatrix52 阅读(81) 评论(0) 推荐(0) 编辑
上一页 1 2 3 4 5 6 ··· 26 下一页

导航