上一页 1 ··· 76 77 78 79 80 81 82 83 84 ··· 294 下一页
摘要: 参考这篇文章: https://zhuanlan.zhihu.com/p/70804197 前言 在处理分类问题的神经网络模型中,很多都使用交叉熵 (cross entropy) 做损失函数。这篇文章详细地介绍了交叉熵的由来、为什么使用交叉熵,以及它解决了什么问题,最后介绍了交叉熵损失函数的应用场景 阅读全文
posted @ 2022-04-06 00:12 blcblc 阅读(1412) 评论(0) 推荐(1)
摘要: “风起于青萍之末,浪成于微澜之间。”发展大势与社会大局,总能在细微处展现其无远弗届的影响力。广大干部特别是领导干部,任何时候都要保持清醒头脑、敏捷思维,善于用“望远镜”登高远望、用“显微镜”见微知著、用“放大镜”评估后果,形成看问题的高度、深度和广度,成为懂得看和看得懂“桅杆顶”的人,练就草摇叶响知 阅读全文
posted @ 2022-04-05 15:38 blcblc 阅读(471) 评论(0) 推荐(0)
摘要: 参考: https://blog.csdn.net/bqw18744018044/article/details/113720717 一、基本概念和作用1. 装饰器装饰器(decorate)必须是可调用对象(Callable),其参数是一个函数,称为“被装饰函数”,其输出也是一个函数(或者可调用对象 阅读全文
posted @ 2022-04-04 22:51 blcblc 阅读(55) 评论(0) 推荐(0)
摘要: 参考这篇文章: https://blog.csdn.net/bqw18744018044/article/details/109149584? 一、迭代器、for循环、iter()方法包含__iter__方法和__next__方法的对象就是迭代器对象,其中__iter__方法必须返回一个迭代器(自定 阅读全文
posted @ 2022-04-04 22:16 blcblc 阅读(77) 评论(0) 推荐(0)
摘要: 参考这篇文章: https://blog.csdn.net/bqw18744018044/article/details/83120425 【深度学习】:超详细的Softmax求导 阅读全文
posted @ 2022-04-04 21:42 blcblc 阅读(86) 评论(0) 推荐(0)
该文被密码保护。 阅读全文
posted @ 2022-04-04 16:08 blcblc 阅读(0) 评论(0) 推荐(0)
摘要: 在深度学习之前,传统的SIFT,HOG等算法均由按组统计特征的特性,它们一般将同一个种类的特征归为一组,然后在进行组归一化。 SIFT特征提取 https://blog.csdn.net/abcjennifer/article/details/7639681 HOG特征提取 https://www. 阅读全文
posted @ 2022-03-30 20:00 blcblc 阅读(203) 评论(0) 推荐(0)
摘要: 今天复习了这篇文章的内容: https://www.cnblogs.com/charlesblc/p/12633236.html https://zhuanlan.zhihu.com/p/54171297 模型优化之Batch Normalization https://zhuanlan.zhihu 阅读全文
posted @ 2022-03-30 17:41 blcblc 阅读(381) 评论(0) 推荐(0)
摘要: http://www.fenghz.xyz/Must-Know-Tips-in-DL/ Must Know Tips/Tricks in Deep Neural Networks阅读笔记 2018-04-15 深度学习 Train Tricks 文章题目: Must Know Tips/Tricks 阅读全文
posted @ 2022-03-30 15:05 blcblc 阅读(53) 评论(0) 推荐(0)
摘要: 今天从这里下载了一些ppt,可以学习看看别人是怎么准备报告的 https://aicon.infoq.cn/2018/beijing/#schedule 《文本表示和生成新进展 AIConf - lilei 2018》 《机器学习在苏宁易购搜索平台中的实践 李春生》 《ffm及deepffm模型在推 阅读全文
posted @ 2022-03-28 21:42 blcblc 阅读(59) 评论(0) 推荐(0)
上一页 1 ··· 76 77 78 79 80 81 82 83 84 ··· 294 下一页