上一页 1 ··· 3 4 5 6 7 8 9 10 11 ··· 29 下一页
摘要: self.conv1 = tf.keras.layers.Conv2D(filter_num, (3, 3), strides=stride, padding='same',kernel_initializer=tf.keras.initializers.he_normal(stddev=0.02) 阅读全文
posted @ 2020-12-16 21:01 山…隹 阅读(601) 评论(0) 推荐(0)
摘要: 阅读全文
posted @ 2020-11-16 10:56 山…隹 阅读(333) 评论(0) 推荐(1)
摘要: class MyRnn(tf.keras.Model): def __init__(self, units): super(MyRnn, self).__init__() self.mycnn = tf.keras.Sequential([ tf.keras.layers.Conv2D(12, ke 阅读全文
posted @ 2020-11-13 11:35 山…隹 阅读(796) 评论(0) 推荐(0)
摘要: 将经过卷积层处理后的feature与非图像特征进行融合 import numpy as np import tensorflow as tf import pandas as pd from my_cnn_net import My_cnn import os # 设置GPU相关底层配置 physi 阅读全文
posted @ 2020-11-05 14:32 山…隹 阅读(1140) 评论(0) 推荐(0)
摘要: 前面都是写的cell版本的GRU和LSTM,比较底层,便于理解原理。 下面的Sequential版不用自定义state参数的形状,使用更简便: import tensorflow as tf import os os.environ['TF_CPP_MIN_LOG_LEVEL'] = '2' ass 阅读全文
posted @ 2020-10-17 00:15 山…隹 阅读(1094) 评论(0) 推荐(0)
摘要: GRU相比于LSTM只有两个门: import tensorflow as tf import os os.environ['TF_CPP_MIN_LOG_LEVEL'] = '2' assert tf.__version__.startswith('2.') # 设置相关底层配置 physical 阅读全文
posted @ 2020-10-16 23:56 山…隹 阅读(1244) 评论(0) 推荐(0)
摘要: 相比simplernn多了三个门,记忆、输入、输出 记忆门(遗忘门,1为记住0为遗忘): 输入门: C: 输出门: 总: 极端条件: 公式: import tensorflow as tf import os os.environ['TF_CPP_MIN_LOG_LEVEL'] = '2' asse 阅读全文
posted @ 2020-10-16 22:59 山…隹 阅读(2091) 评论(0) 推荐(0)
摘要: 原来的参数更新代码: 加一个Graddient Clipping后(原理是当梯度高于某个阈值时,自动除以自己的模来达到减小梯度的目的): 比如下图中设置梯度最大值为15 阅读全文
posted @ 2020-10-16 12:45 山…隹 阅读(356) 评论(0) 推荐(0)
摘要: import tensorflow as tf import os os.environ['TF_CPP_MIN_LOG_LEVEL'] = '2' assert tf.__version__.startswith('2.') # 设置相关底层配置 physical_devices = tf.con 阅读全文
posted @ 2020-10-16 11:18 山…隹 阅读(1174) 评论(0) 推荐(0)
摘要: 阅读全文
posted @ 2020-10-07 17:14 山…隹 阅读(157) 评论(0) 推荐(0)
上一页 1 ··· 3 4 5 6 7 8 9 10 11 ··· 29 下一页