会员
周边
新闻
博问
闪存
众包
赞助商
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
微信扫一扫打赏支持
范仁义
在校每年国奖、每年专业第一,加拿大留学,先后工作于华东师范大学和香港教育大学
博客园
首页
新随笔
联系
管理
订阅
上一页
1
···
81
82
83
84
85
86
87
88
89
···
498
下一页
2020年7月23日
机器学习准备---3、模拟e^x的麦克劳林展开式
摘要: 机器学习准备 3、模拟e^x的麦克劳林展开式 一、总结 一句话总结: 1、用麦克劳林展开式模拟函数,比如e^x,阶数越高就越接近 2、e^x=f(0)+ f′(0)x+ f″(0)x ²/ 2!+...+ fⁿ(0)x^n/n!+Rn(x)=1+x+x^2/2!+x^3/3!+...+x^n/n!+
阅读全文
posted @ 2020-07-23 00:02 范仁义
阅读(1428)
评论(0)
推荐(0)
2020年7月22日
机器学习准备---2、梯度下降法 实例
摘要: 机器学习准备 2、梯度下降法 实例 一、总结 一句话总结: 梯度下降法就是当前的x一步步减去梯度乘以学习速率:cur_x = cur_x - grad_cur * learning_rate def gradient_descent_1d(grad, cur_x=0.1, learning_rate
阅读全文
posted @ 2020-07-22 23:05 范仁义
阅读(633)
评论(0)
推荐(0)
机器学习准备---1、简单线性回归(最小二乘法实例)
摘要: 机器学习准备 1、简单线性回归(最小二乘法实例) 一、总结 一句话总结: 1、在本例中,最小二乘法就是计算损失的,就是求出w和b之后计算这对w和b对应的损失(因为本例中w和b是用公式可以求的) 2、而在tensorflow2的例子中,因为w和b是多次试探,所以每次试探的结果就是使最小二乘法对应的损失
阅读全文
posted @ 2020-07-22 14:19 范仁义
阅读(267)
评论(0)
推荐(0)
2020年7月21日
线性回归方程如何计算a和b(y=ax+b)
摘要: 线性回归方程如何计算a和b(y=ax+b) 一、总结 一句话总结: 线性回归方程中的a和b都是有公式求的 二、线性回归方程如何计算a和b(y=ax+b) 博客对应课程的视频位置:
阅读全文
posted @ 2020-07-21 19:44 范仁义
阅读(9696)
评论(0)
推荐(0)
【代价函数】均方误差MSE
摘要: 【代价函数】均方误差MSE 一、总结 一句话总结: 在线性回归问题中,常常使用MSE(Mean Squared Error)作为loss函数,而在分类问题中常常使用交叉熵作为loss函数。 1、sigmoid激活函数的问题? a、我们可以从sigmoid激活函数的导数特性图中发现,当激活值很大的时候
阅读全文
posted @ 2020-07-21 15:29 范仁义
阅读(1871)
评论(0)
推荐(0)
交叉熵损失函数原理详解
摘要: 交叉熵损失函数原理详解 一、总结 一句话总结: 1、叉熵损失函数(CrossEntropy Loss):分类问题中经常使用的一种损失函数 2、交叉熵能够衡量同一个随机变量中的两个不同概率分布的差异程度,在机器学习中就表示为真实概率分布与预测概率分布之间的差异。交叉熵的值越小,模型预测效果就越好。 3
阅读全文
posted @ 2020-07-21 15:08 范仁义
阅读(3160)
评论(0)
推荐(1)
数学里面期望值是什么?怎么求?
摘要: 数学里面期望值是什么?怎么求? 一、总结 一句话总结: 在概率论和统计学中,数学期望(mean)(或均值,亦简称期望)是试验中每次可能结果的概率乘以其结果的总和,是最基本的数学特征之一。它反映随机变量平均取值的大小。 1、数学期望实例? 筛子摇每一个值(1-6)的概率是1/6,则摇到点的期望=1*1
阅读全文
posted @ 2020-07-21 14:44 范仁义
阅读(12372)
评论(0)
推荐(0)
tensorflow2知识总结---4、逻辑回归实例
摘要: tensorflow2知识总结 4、逻辑回归实例 一、总结 一句话总结: 也就是将损失函数设置为binary_crossentropy即可:model.compile(optimizer='adam',loss='binary_crossentropy',metrics=['acc']) 1、把te
阅读全文
posted @ 2020-07-21 13:49 范仁义
阅读(213)
评论(0)
推荐(0)
tensorflow2知识总结---3、逻辑回归与交叉熵
摘要: tensorflow2知识总结 3、逻辑回归与交叉熵 一、总结 一句话总结: 1、逻辑回归:线性回归预测的是一个连续值,逻辑回归给出的“是”和“否”的回答 2、交叉熵:交叉熵刻画的是实际输出(概率)与期望输出(概率)的距离,也就是交叉熵的值越小,两个概率分布就越接近。 1、sigmoid函数 和 概
阅读全文
posted @ 2020-07-21 00:51 范仁义
阅读(333)
评论(0)
推荐(0)
2020年7月20日
tensorflow2知识总结---2、多层感知器实例
摘要: tensorflow2知识总结 2、多层感知器实例 一、总结 一句话总结: 1、多层感知器也就是创建的模型是多层的模型而已,其实基本架构(创建模型、训练模型、模型预测)也都是一样的 2、隐藏层:tf.keras.layers.Dense(10,input_shape=(3,),activation=
阅读全文
posted @ 2020-07-20 23:52 范仁义
阅读(318)
评论(0)
推荐(0)
上一页
1
···
81
82
83
84
85
86
87
88
89
···
498
下一页
公告