上一页 1 ··· 6 7 8 9 10 11 12 13 14 ··· 72 下一页
摘要: partial函数可以提高代码利用率和简洁性: from functools import partialdef power(base, exponent, bias): return base * exponent + biassquared =... 阅读全文
posted @ 2020-04-23 21:06 2021年的顺遂平安君 阅读(49) 评论(0) 推荐(0) 编辑
摘要: f = lambda X, y: X f(2,2)2 f([1,1]) () missing 1 required positional argument: 'y' f([1,1],[2,2])[1,1] 阅读全文
posted @ 2020-04-23 17:16 2021年的顺遂平安君 阅读(73) 评论(0) 推荐(0) 编辑
摘要: ``` f = lambda X, y: X ``` ``` f(2,2) 2 ``` ``` f([1,1]) () missing 1 required positional argument: 'y' ``` ``` f([1,1],[2,2]) [1,1] ``` 阅读全文
posted @ 2020-04-23 17:16 2021年的顺遂平安君 阅读(749) 评论(0) 推荐(0) 编辑
摘要: `prefetch`可以使CPU和GPU的使用率最大化。 阅读全文
posted @ 2020-04-23 16:48 2021年的顺遂平安君 阅读(693) 评论(0) 推荐(0) 编辑
摘要: def csv_reader_dataset(filepaths, repeat=1, n_readers=5, n_read_threads=None, shuffle_buffer_size=10000, ... 阅读全文
posted @ 2020-04-23 16:48 2021年的顺遂平安君 阅读(62) 评论(0) 推荐(0) 编辑
摘要: 导入数据 X = pd.read_csv('./datasets/housing/housing.csv')X = X.sample(n=10)X.drop(columns = X.columns.difference(['longitude']), i... 阅读全文
posted @ 2020-04-23 00:25 2021年的顺遂平安君 阅读(127) 评论(0) 推荐(0) 编辑
摘要: 导入数据 为了避免报错,先进行格式转换: 图解: 将数据集重复3次, 每次输出一个包括10个元素的batch。 如果不能刚好等分,例如 最后一个batch将包含剩下的元素 函数 函数 使用 函数前需要先 阅读全文
posted @ 2020-04-23 00:25 2021年的顺遂平安君 阅读(2157) 评论(0) 推荐(0) 编辑
摘要: 以如下模型为例, 两个Dense层都带有regularizer,因此都有regularization loss项。 访问 可以得到当前的regularization loss 当前状态下第一层和第二层的regularization loss分别是0.07213736和0.06456626。 下面验证 阅读全文
posted @ 2020-04-22 20:13 2021年的顺遂平安君 阅读(1420) 评论(0) 推荐(0) 编辑
摘要: 以如下模型为例, l2_reg = keras.regularizers.l2(0.05)model = keras.models.Sequential([ keras.layers.Dense(30, activation="elu", kern... 阅读全文
posted @ 2020-04-22 20:13 2021年的顺遂平安君 阅读(93) 评论(0) 推荐(0) 编辑
摘要: 参考文献:Hands-On Machine Learning with Scikit-Learn, Keras, and TensorFlow: Concepts, Tools, and Techniques to Build Intelligent Sy... 阅读全文
posted @ 2020-04-22 19:54 2021年的顺遂平安君 阅读(63) 评论(0) 推荐(0) 编辑
上一页 1 ··· 6 7 8 9 10 11 12 13 14 ··· 72 下一页