摘要: ... if __name__=='__main__': 语句1 ··· 语句n 使用“if __name__ == '__main__':”可以在被其他模块import时,不执行语句1......语句n。 当直接运行当前模块时,“if __name__==’__main__:”作为程序的入口,语句 阅读全文
posted @ 2019-12-05 09:27 Picassooo 阅读(184) 评论(0) 推荐(0)
摘要: 逻辑回归的原理是用逻辑函数把线性回归的结果(-∞,∞)映射到(0,1),因此本文先介绍线性回归和逻辑函数,然后介绍逻辑回归模型,再介绍如何优化逻辑函数的权重参数,最后用python实现一个简单的逻辑回归模型。 1. 线性回归 线性回归的数学表达式是: $z = {{\bf{w}}^T}{\bf{x} 阅读全文
posted @ 2019-12-04 16:52 Picassooo 阅读(5127) 评论(0) 推荐(0)
摘要: 本文目录: 1. 感知器 2. 感知器的训练法则 3. 梯度下降和delta法则 4. python实现 1. 感知器[1] 人工神经网络以感知器(perceptron)为基础。感知器以一个实数值向量作为输入,计算这些输入的线性组合,然后如果结果大于某个阈值,就输出1,否则输出-1(或0)。更精确地 阅读全文
posted @ 2019-12-03 21:26 Picassooo 阅读(2787) 评论(0) 推荐(0)
摘要: 比如有一个txt文件,里面的内容长这样: 如何用Python读取这些数据? 方法一:用np.loadtxt函数 程序: data = np.loadtxt('data.txt', dtype=np.float32, delimiter=' ') 方法二:自定义数据读取函数 程序: import nu 阅读全文
posted @ 2019-11-30 23:00 Picassooo 阅读(18728) 评论(0) 推荐(1)
摘要: https://www.cnblogs.com/seniusen/p/10012656.html 阅读全文
posted @ 2019-11-25 21:39 Picassooo 阅读(257) 评论(0) 推荐(0)
摘要: 有方程组如下: 迭代法求解x,python代码如下: import numpy as np import matplotlib.pyplot as plt A = np.array([[8, -3, 2], [4, 11, -1], [6, 3, 12]]) b = np.array([[20, 3 阅读全文
posted @ 2019-11-22 23:00 Picassooo 阅读(2564) 评论(0) 推荐(0)
摘要: 本文摘自数据规范化(归一化)、及Z-score标准化 解读:为什么要做特征归一化/标准化?(推荐) 一. 常用的feature scaling方法 最大最小规范化 最小-最大规范化也称为离散标准化,是对原始数据的线性变换,将数据值映射到[0, 1]之间。公式为: 离散标准化保留了原来数据中存在的关系 阅读全文
posted @ 2019-11-21 10:37 Picassooo 阅读(4443) 评论(0) 推荐(0)
摘要: 一个爸爸认为“房子是最大的投资和资产”,而另一个爸爸则相信“房子是负债,如果你的房子是你最大的投资,你就有麻烦了”。 两个爸爸的观念完全不同。一个爸爸认为,富人应该多缴税去照顾那些相对不幸的人;另一个爸爸则说:“税是惩勤奖懒。” 一个爸爸说:“当涉及钱的时候要小心,别去冒险。”而另一个爸爸则说:“要 阅读全文
posted @ 2019-11-14 10:16 Picassooo 阅读(208) 评论(0) 推荐(0)
摘要: 1. 期望 2. 方差 3. 协方差和相关系数 协方差(或者相关系数)如果是正的,表明X和Y之间同时增加或减小;如果是负的,表明X和Y之间有一个增加而另一个减小;如果它的值为0,则表明X和Y之间是独立的。 4. 协方差矩阵 在机器学习中,计算两个特征X、Y(都是向量)的协方差公式为 式中n表示n个样 阅读全文
posted @ 2019-11-12 20:07 Picassooo 阅读(4379) 评论(0) 推荐(0)
摘要: 总结:pytorch和numpy中,星号*都表示矩阵点对点相乘;matmul都表示矩阵乘法。 1.mat()函数中矩阵的乘积可以使用(星号) * 或 .dot()函数,其结果相同。而矩阵对应位置元素相乘需调用numpy.multiply()函数。 a = np.mat([1, 2, 3]) b = 阅读全文
posted @ 2019-11-12 11:19 Picassooo 阅读(823) 评论(0) 推荐(0)