12 2020 档案

摘要:Sequential 相当于一个容器,里面封装了一个神经网络结构 model=tf.keras.model.Sequential([网络结构]) 常用网络结构 拉直层:tf.keras.layers.Flatten() 将输入变为一维数组 全连接层:tf.keras.layers.Dense(神经元 阅读全文
posted @ 2020-12-24 19:33 吴莫愁258 阅读(102) 评论(0) 推荐(0)
摘要:。 阅读全文
posted @ 2020-12-24 16:27 吴莫愁258 阅读(41) 评论(0) 推荐(0)
摘要:欠拟合解决方法:增加输入特征项,增加网络参数,减少正则化参数 过拟合解决方法:数据清洗,增大训练集,采用正则化,增大正则化参数 阅读全文
posted @ 2020-12-24 15:35 吴莫愁258 阅读(146) 评论(0) 推荐(0)
摘要:预测值与实际值的差距。 常用损失函数:均方误差,交叉熵,自定义 阅读全文
posted @ 2020-12-24 15:23 吴莫愁258 阅读(56) 评论(0) 推荐(0)
摘要:使输出不再是x的线性关系,增强神经网络的表达力。 优秀的激活函数:非线性,可微性,单调性,近似恒等性。 输出范围:有限值,基于梯度,无限值,调小学习率。 sigmoid函数:求导后为0-0.25。易造成梯度消失,输出非0均值收敛慢,幂运算复杂训练时间长。 Tanh函数:易造成梯度消失,幂运算复杂训练 阅读全文
posted @ 2020-12-24 10:26 吴莫愁258 阅读(97) 评论(0) 推荐(0)
摘要:![](https://img2020.cnblogs.com/blog/2126973/202012/2126973-20201223215424769-1708199656.png) 阅读全文
posted @ 2020-12-23 21:55 吴莫愁258 阅读(54) 评论(0) 推荐(0)
摘要:![](https://img2020.cnblogs.com/blog/2126973/202012/2126973-20201223215212994-878815278.png) 阅读全文
posted @ 2020-12-23 21:54 吴莫愁258 阅读(95) 评论(0) 推荐(0)
摘要:import tensorflow as tf import numpy as np "tf.where(),条件语句,真返回a" a = tf.constant([1, 2, 3, 1, 1]) b = tf.constant([0, 1, 3, 4, 5]) c = tf.where(tf.gr 阅读全文
posted @ 2020-12-23 21:47 吴莫愁258 阅读(67) 评论(0) 推荐(0)
摘要:"求沿指定维度的平均值、和(axis=1沿行向量方向)" x = tf.constant([[1, 2, 3], [2, 2, 3]]) print("x:", x) print("mean of x:", tf.reduce_mean(x)) # 求x中所有数的均值 print("sum of x 阅读全文
posted @ 2020-12-23 19:09 吴莫愁258 阅读(105) 评论(0) 推荐(0)
摘要:"将Numpy数组转换为张量" a = np.arange(0,5) print("数组a:",a) b = tf.convert_to_tensor(a,dtype=tf.int64) print("张量b:",b) "创建全为0的张量" zero_Tensor = tf.zeros([2,3]) 阅读全文
posted @ 2020-12-23 19:04 吴莫愁258 阅读(127) 评论(0) 推荐(0)
摘要:梯度带tf.GradientTape(自动求梯度) Tensorflow 会把 'tf.GradientTape' 上下文中执行的所有操作都记录在一个磁带上 ("tape")。 然后基于这个磁带和每次操作产生的导数,用反向微分法("reverse mode differentiation")来计算这 阅读全文
posted @ 2020-12-23 16:35 吴莫愁258 阅读(179) 评论(0) 推荐(0)
摘要:先推断再决策。 用推断得到的后验概率P(O|x)=P(x|O)P(O)/P(x)来求P(x'|X) 阅读全文
posted @ 2020-12-08 21:00 吴莫愁258 阅读(81) 评论(0) 推荐(0)