alex_bn_lee

导航

上一页 1 ··· 125 126 127 128 129 130 131 132 133 ··· 245 下一页

2020年9月27日 #

【486】机器学习的通用工作流程

摘要: 参考:Python深度学习 P89 目录 定义问题,收集数据集 选择衡量成功的指标 确定评估方法 准备数据 开发比基准更好的模型 扩大模型规模:开发过拟合的模型 模型正则化与调节超参数 一、定义问题,收集数据集 首先,你必须定义所面对的问题。 你的输入数据是什么?你要预测什么? 你面对的是什么类型的 阅读全文

posted @ 2020-09-27 17:00 McDelfino 阅读(188) 评论(0) 推荐(0)

【485】deep learning 防止 overfitting 的方法

摘要: 获取更多的训练数据 减小网络的容量(层数,神经元数量) 添加权重正则化(l1 和 l2) 添加 dropout 添加正则化来防止 overfitting 一种常见的降低 overfitting 的方法就是强制让模型权重只能取较小的值,从而限制模型的复杂度,这使得权重值的分布更加规则(regular) 阅读全文

posted @ 2020-09-27 11:39 McDelfino 阅读(276) 评论(0) 推荐(0)

2020年9月25日 #

【484】Book - Deep Learning with Python 相关说明与代码

摘要: 目录: 一、相关函数说明 imdb.load_data() numpy array 可以通过 list 将所有索引赋值 善用 enumerate 函数 通过 numpy.array 来对比两个列表相似性 标签为整数,用 sparse_categorical_crossentropy 损失函数 num 阅读全文

posted @ 2020-09-25 21:14 McDelfino 阅读(227) 评论(0) 推荐(0)

2020年9月24日 #

【483】Keras 中 LSTM 与 BiLSTM 语法

摘要: 参考:Keras-递归层Recurrent官方说明 参考:Keras-Bidirectional包装器官方说明 LSTM(units=32, input_shape=(10, 64)) units=32:输出神经元个数 input_shape=(10, 64):输入数据形状,10 代表时间序列的长度 阅读全文

posted @ 2020-09-24 23:55 McDelfino 阅读(2816) 评论(0) 推荐(0)

【482】Keras 实现 LSTM & BiLSTM

摘要: 参考:Keras 实现 LSTM 参考:Keras-递归层Recurrent官方说明 参考:GitHub - Keras LSTM 参考:GitHub - Keras BiLSTM LSTM 是优秀的循环神经网络 (RNN) 结构,而 LSTM 在结构上也比较复杂,对 RNN 和 LSTM 还稍有疑 阅读全文

posted @ 2020-09-24 22:16 McDelfino 阅读(5632) 评论(1) 推荐(0)

上一页 1 ··· 125 126 127 128 129 130 131 132 133 ··· 245 下一页