微信扫一扫打赏支持
上一页 1 ··· 64 65 66 67 68 69 70 71 72 ··· 498 下一页
摘要: 200820_预测双色球 1、神经网络擅长解决的是什么(杂) 一、总结 一句话总结: 【拟合函数来预测】:神经网络擅长解决的是“过去发生过 而且 未来也会发生 可是它喵的我就是看不出规律 只好求助计算机”的事情。 1、完全随机事件(比如买彩票)可以被神经网络预测么? 可以,因为完全随机事件有没有规律 阅读全文
posted @ 2020-08-20 19:22 范仁义 阅读(477) 评论(0) 推荐(0)
摘要: 200820_机器学习 1、基础知识 一、总结 一句话总结: 一定要录课,不录课==没学 1、机器学习的两个驱动? 神经网络,数据挖掘 2、强化学习? 介于监督和无监督之间,当答案不正确时,算法被告知,如何改正则不得而知,算法需要去探索,试验不同情况,直到得到正确答案,强化学习有时称为伴随评论家的学 阅读全文
posted @ 2020-08-20 17:39 范仁义 阅读(112) 评论(0) 推荐(0)
摘要: 机器学习常见知识点(总结) 一、总结 一句话总结: 目录结构(知识结构)清晰了,添枝加叶就非常非常简单了 二、机器学习常见知识点(总结) 转自或参考:一文总结机器学习常见知识点https://zhuanlan.zhihu.com/p/85508001 一、准备 机器学习是什么,人工智能的子类,深度学 阅读全文
posted @ 2020-08-20 17:34 范仁义 阅读(1322) 评论(0) 推荐(0)
摘要: 机器学习目录 一、总结 一句话总结: A、数据量够的话,深度学习是可以做几乎所有事情的 B、其它的算法比如支持向量机,还有最开始的那些,比如决策树,比如什么k-means什么的 模型的评估与选择:来选择模型依据线性模型:决策树:神经网络:支持向量机:贝叶斯分类:集成学习:聚类:降维与度量学习:特征选 阅读全文
posted @ 2020-08-20 17:12 范仁义 阅读(152) 评论(0) 推荐(0)
摘要: 机器学习理论|频率派和贝叶斯派对比 一、总结 一句话总结: (A)、对于一些问题,比如类似从盒子中抽取小球的经典问题,我们可以通过多次实验的方式来计算频率,并进而估算概率,这种思想是典型的Frequentist的思想; (B)、而对于另一些问题,如南极大陆在本世纪末完全融化的可能性,这类事件其不可能 阅读全文
posted @ 2020-08-20 02:20 范仁义 阅读(384) 评论(0) 推荐(0)
摘要: 进化神经网络(总结) 一、总结 一句话总结: 【也就是神经网络的遗传变异进化那一套】:进化神经网络(evolutionary neural networks,ENN)是基于进化计算和神经网络两大智能分支,将二者有机融合在一起产生的一种全新神经网络模型。 1、进化神经网络的优缺点? 优点:避免梯度下降 阅读全文
posted @ 2020-08-19 23:46 范仁义 阅读(755) 评论(0) 推荐(0)
摘要: 机器学习中正则化项L1和L2的直观理解 一、总结 一句话总结: l1正则化:$$\operatorname { cost } = ( Wx - \text { real } y ) ^ { 2 } + \text { abs } ( W )$$ l2正则化:$$\operatorname { cos 阅读全文
posted @ 2020-08-19 23:32 范仁义 阅读(374) 评论(0) 推荐(0)
摘要: 迁移学习 (Transfer Learning)是什么(总结) 一、总结 一句话总结: 【踩在巨人的肩膀上】:迁移学习就是一层层网络中每个节点的权重从一个训练好的网络迁移到一个全新的网络里,而不是从头开始,为每特定的个任务训练一个神经网络。 举图像识别中最常见的例子,训练一个神经网络。来识别不同的品 阅读全文
posted @ 2020-08-19 23:27 范仁义 阅读(1806) 评论(0) 推荐(0)
摘要: 深度学习: 参数初始化 一、总结 一句话总结: 1)、好的开始是成功的一半,为了让你的模型跑赢在起跑线 ,请慎重对待参数初始化。 2)、tf的初始化器包括:tf.initializers.he_normal()、tf.initializers.truncated_normal()、tf.contri 阅读全文
posted @ 2020-08-15 00:05 范仁义 阅读(1191) 评论(0) 推荐(0)
摘要: 200813_tensorflow2 5、卷积神经网络讲课,用CBAPD讲的话,真的极佳 一、总结 一句话总结: 卷积就是特征提取器,就是C(卷积层)B(批标准化层)A(激活层)P(池化层)D(dropout层) model=tf.keras.models.Sequential([ Conv2D(f 阅读全文
posted @ 2020-08-14 23:52 范仁义 阅读(332) 评论(0) 推荐(0)
上一页 1 ··· 64 65 66 67 68 69 70 71 72 ··· 498 下一页