上一页 1 2 3 4 5 6 7 ··· 54 下一页
摘要: https://blog.csdn.net/caroline_wendy/article/details/80494120 Gluon是MXNet的高层封装,网络设计简单易用,与Keras类似。随着深度学习技术的普及,类似于Gluon这种,高层封装的深度学习框架,被越来越多的开发者接受和使用。 在开 阅读全文
posted @ 2019-05-06 18:55 mydddfly 阅读(591) 评论(0) 推荐(0)
摘要: http://www.cnblogs.com/infaraway/p/8523341.html 卷积神经网络(Convolutional Neural Network, CNN)是一种前馈神经网络,它的人工神经元可以响应一部分覆盖范围内的周围单元,对于大型图像处理有出色表现。 其中 文章 详解卷积神 阅读全文
posted @ 2019-05-06 17:12 mydddfly 阅读(548) 评论(0) 推荐(0)
摘要: http://www.mamicode.com/info-detail-2537502.html 多层感知机中: hi 以 p 的概率被丢弃,以 1-p 的概率被拉伸,除以 1 - p import mxnet as mx import sys import os import time impor 阅读全文
posted @ 2019-05-05 17:08 mydddfly 阅读(349) 评论(0) 推荐(0)
摘要: https://www.cnblogs.com/hellcat/p/9084894.html 目录 一、符号式编程 1、命令式编程和符号式编程 2.MXNet的符号式编程 二、惰性计算 用同步函数实际计算出结果 三、自动并行 目录 一、符号式编程 1、命令式编程和符号式编程 2.MXNet的符号式编 阅读全文
posted @ 2019-05-05 11:37 mydddfly 阅读(882) 评论(0) 推荐(0)
摘要: http://www.cnblogs.com/fiercex/p/7927804.html fiercex 路漫漫其修远兮,吾将上下而求索 fiercex 路漫漫其修远兮,吾将上下而求索 Gluon炼丹(Kaggle 120种狗分类,迁移学习加双模型融合) 这是在kaggle上的一个练习比赛,使用的 阅读全文
posted @ 2019-05-05 11:08 mydddfly 阅读(414) 评论(0) 推荐(0)
摘要: https://blog.csdn.net/pandav5/article/details/53993684 (1)Mxnet的数据格式为NDArray,当需要读取可观看的数据,就要调用: numpy_d = d.asnumpy()converts it to a Numpy array. (2)l 阅读全文
posted @ 2019-04-30 17:36 mydddfly 阅读(379) 评论(0) 推荐(0)
摘要: https://www.cnblogs.com/hellcat/p/9047618.html 博客园 首页 新随笔 联系 管理 订阅 随笔- 302 文章- 7 评论- 93 博客园 首页 新随笔 联系 管理 订阅 随笔- 302 文章- 7 评论- 93 随笔- 302 文章- 7 评论- 93 阅读全文
posted @ 2019-04-30 11:35 mydddfly 阅读(167) 评论(0) 推荐(0)
摘要: http://www.cnblogs.com/bonelee/p/8528863.html 积神经网络的参数优化方法——调整网络结构是关键!!!你只需不停增加层,直到测试误差不再减少. 积神经网络的参数优化方法——调整网络结构是关键!!!你只需不停增加层,直到测试误差不再减少. 积神经网络(CNN) 阅读全文
posted @ 2019-04-30 11:15 mydddfly 阅读(7293) 评论(0) 推荐(2)
摘要: https://cloud.tencent.com/developer/news/190352 http://playground.tensorflow.org PlayGround是一个在线演示、实验的神经网络平台,是一个入门神经网络非常直观的网站。这个图形化平台非常强大,将神经网络的训练过程直接 阅读全文
posted @ 2019-04-29 14:17 mydddfly 阅读(359) 评论(0) 推荐(0)
摘要: https://segmentfault.com/a/1190000014001934?utm_source=channel-hottest 前言 简单来说,激活函数在神经网络里的作用就是引入Non-linearity。假如没有激活函数的话,一个多层的神经网络等同于一个一层的神经网络。简单来说,一个 阅读全文
posted @ 2019-04-29 11:52 mydddfly 阅读(510) 评论(0) 推荐(0)
上一页 1 2 3 4 5 6 7 ··· 54 下一页