ISL学习——tensorflow部分指令

tf.keras.layers.Sequential() #用来描述神经网络的结构,其中Sequential()里面的参数是用来描述从输入层到输出层的网络结构。
modnn = tf.keras.Sequential(
    [
        tf.keras.layers.Dense(units = 10, #参数为正整数,表示输出空间的维数为10维
                             activation = 'relu'), #参数为激活函数类型,这里选择ReLU激活函数;activation = None 表示没有激活函数;默认情况下,系统不会使用任何激活函数
        tf.keras.layers.Dropout(rate = 0.4), #rate = 0.4,表示将数据变成0的概率为0.4
        tf.keras.layers.Dense(units = 1, activation = 'sigmoid')
    ]
)
model.compile() #方法用于在配置训练方法时,告知训练时用的优化器、损失函数和准确率评测标准
#具体格式为:
model.compile(optimizer = 优化器,
                        loss = 损失函数,
                        metrics = ["准确率”])
modnn.compile(loss = 'binary_crossentropy', #损失函数为 binary_crossentropy
              optimizer = 'rmsprop', #优化器为 rmsprop
              metrics = 'accuracy') #网络评价指标为 accuracy

 

modnn.fit(x, y, batch_size, epochs, verbose, validation_split, validation_data, validation_freq)
#x, y 分别表示训练集的输入和输出 #batch_size 表示训练一次网络所用的样本数 #epichs 表示迭代次数 #verbose 表示是否输出信息。verbose = '0'表示不输出信息, verbose = '1'表示输出信息。 #validation_split 表示(0,1)的浮点数,分割数据当验证数据,其它当训练数据 #validation_data 表示验证数据,该数据将覆盖validation_spilt设定的数据 #validation_freq 表示验证数据的epoch #callback 在每个training/epoch/batch结束时,可以通过回调函数Callbacks查看一些内部信息。常用的callback有EarlyStopping,当监视的变量停止改善时,停止训练,防止模型过拟合,其默认参数如下:
callback=callbacks.EarlyStopping(monitor='loss',min_delta=0.002,patience=0,mode='auto',restore_best_weights=False)

 

参考文章:

(8条消息) tensorflow中model.compile()用法_yunfeather的博客-CSDN博客

(8条消息) model.fit( )函数:训练模型_方如一的博客-CSDN博客

posted @ 2023-05-20 10:04  路人呃呃  阅读(32)  评论(0)    收藏  举报