2020年12月21日
摘要: http://bilibili.com/video/BV184411Q7Ng?p=34 线性回归:就是找到合适的权阵,与每一个特征相乘,最后求和,得出要预测的目标值。 实际生活中,数据分布没有那么简单,并不是严格在一条直线上,所以即便使用机器学习用线性回归模型预测,也是有误差的。 注解: 红色小线段 阅读全文
posted @ 2020-12-21 23:01 一杯明月 阅读(748) 评论(0) 推荐(0) 编辑
摘要: 目标值:是连续型的值,在某个区间内可以取任意数值,即可以无限的划分。 离散型随机变量有取某个值的概率 连续型随机变量没有取得某个值的概率。 以下问题归类为回归问题: 注解: 西瓜好坏的例子,是把连续型的值转变为了离散的值(好、坏),是把一个回归问题转变为了一个分类问题。 回归例子: 注解: 这里的属 阅读全文
posted @ 2020-12-21 16:55 一杯明月 阅读(459) 评论(0) 推荐(0) 编辑
摘要: import tensorflow as tf def myregession(): """ 自实现一个线性回归预测 :return: None """ #1. 准备数据 x 特征值,[100,1], 100个样本,1个特征 # y 目标值 ,[100] x=tf.random_normal([10 阅读全文
posted @ 2020-12-21 16:40 一杯明月 阅读(179) 评论(0) 推荐(0) 编辑
摘要: 注解: 线性回归就是找到合适的权重w1,w2,w3,w4,w5乘以相应的特征之后,使得第一个预测值与20接近,第二个预测值与30接近。 先不考虑5个特征,考虑一个特征的简单情况: 注解: 模型参数只有用变量定义,才会被更新 import tensorflow as tf def myregessio 阅读全文
posted @ 2020-12-21 16:32 一杯明月 阅读(357) 评论(0) 推荐(0) 编辑
摘要: 注解: 普通的张量,随便定义的一个tensor,是不能被训练的 import tensorflow as tf a=tf.constant([1,2,3,4,5,6]) var=tf.Variable(tf.random_normal([2,3],mean=0.0,stddev=1.0)) prin 阅读全文
posted @ 2020-12-21 14:59 一杯明月 阅读(141) 评论(0) 推荐(0) 编辑
摘要: import tensorflow as tf zero=tf.zeros([3,4],tf.float32) with tf.Session() as sess: print(zero.eval()) 运行结果: [[0. 0. 0. 0.] [0. 0. 0. 0.] [0. 0. 0. 0.] 阅读全文
posted @ 2020-12-21 11:00 一杯明月 阅读(124) 评论(0) 推荐(0) 编辑