tensorflow2知识总结---2、多层感知器实例
tensorflow2知识总结---2、多层感知器实例
一、总结
一句话总结:
1、多层感知器也就是创建的模型是多层的模型而已,其实基本架构(创建模型、训练模型、模型预测)也都是一样的
2、隐藏层:tf.keras.layers.Dense(10,input_shape=(3,),activation='relu')
3、输出层:tf.keras.layers.Dense(1)
model = tf.keras.Sequential([tf.keras.layers.Dense(10,input_shape=(3,),activation='relu'), tf.keras.layers.Dense(1)])
1、这句代码的意思:tf.keras.layers.Dense(10,input_shape=(3,),activation='relu')?
神经网络隐藏层,节点10个,输入数据是3维(TV,radio,newspaper),激活函数是 relu
2、为什么实例中的 dense_1 的参数是40个(输入层3个维度、中间层神经元10个,输出1个)?
因为输入是3个(TV,radio,newspaper),每一个和中间的每个神经元都是有参数,然后有一个bias,所以是(3+1)
3、为什么实例中的 dense_2 的参数是11个(输入层3个维度、中间层神经元10个,输出1个)?
中间层10个神经元的 wi,再加一个bias
4、tensorflow2的model.summary()的作用?
神经网络模型情况的总结,比如有多少层,每层有多少参数
Model: "sequential_3" _________________________________________________________________ Layer (type) Output Shape Param # ================================================================= dense_1 (Dense) (None, 10) 40 _________________________________________________________________ dense_2 (Dense) (None, 1) 11 ================================================================= Total params: 51 Trainable params: 51 Non-trainable params: 0
5、tensorflow2的模型配置优化函数和损失器?
model的compile方法:model.compile(optimizer='adam',loss='mse')
二、多层感知器实例
博客对应课程的视频位置:
In [12]:
import tensorflow as tf
import pandas as pd
import numpy as np
import matplotlib.pyplot as plt
%matplotlib inline
In [13]:
data = pd.read_csv('dataset/Advertising.csv')
data
Out[13]:
In [14]:
plt.scatter(data.TV,data.sales)
Out[14]:
In [15]:
plt.scatter(data.radio,data.sales)
Out[15]:
In [16]:
plt.scatter(data.newspaper,data.sales)
Out[16]:
In [18]:
x = data.iloc[:,1:-1]
y = data.iloc[:,-1]
x
Out[18]:
In [19]:
y
Out[19]:
In [20]:
# 多层感知器
# 隐藏层,10层
# 3表示输出的数据有三维,(TV,radio,newspaper)
# 第一层(输入层) tf.keras.layers.Dense(10,input_shape=(3,))
# 输出层 tf.keras.layers.Dense(1)
model = tf.keras.Sequential([tf.keras.layers.Dense(10,input_shape=(3,),activation='relu'),
tf.keras.layers.Dense(1)])
# 运行模型
model.summary()
dense_1 (Dense) (None, 10) 中间层,10个神经元,
为什么 dense_1 的参数是40个
因为输入是3个(TV,radio,newspaper),每一个和中间的每个神经元都是有参数,然后有一个bias,所以是(3+1)*10
为什么 dense_2 的参数是11个
中间层10个神经元的 wi,再加一个bias
In [21]:
# 配置优化函数和损失器
model.compile(optimizer='adam',loss='mse')
In [22]:
# 开始训练
history = model.fit(x,y,epochs=500) #epochs表示训练的次数
In [24]:
# 看一下模型的预测能力
# 前10行,中间的3列,也就是那三列输入
test = data.iloc[:10,1:-1]
model.predict(test)
Out[24]:
In [25]:
test = data.iloc[:10,-1]
test
Out[25]:
版权申明:欢迎转载,但请注明出处
一些博文中有一些参考内容因时间久远找不到来源了没有注明,如果侵权请联系我删除。
在校每年国奖、每年专业第一,加拿大留学,先后工作于华东师范大学和香港教育大学。
2025-04-30:宅加太忙,特此在网上找女朋友,坐标上海,非诚勿扰,vx:fan404006308
AI交流资料群:753014672

浙公网安备 33010602011771号