摘要: 四则运算 阅读全文
posted @ 2018-04-19 23:35 郑锦伟 阅读(146) 评论(0) 推荐(0) 编辑
摘要: 以下是本人神经网络基础的学习过程,边学边记,包含对已学知识的总结概况和部分个人见解,目前7篇文献才学习到卷积神经网络和循环神经网络的理论基础上 对于卷积神经网络的训练还在研究学习中,希望能够掌握透里面的知识,学习完后再对基础的数字识别案例进行实践,下个星期再放上其余的读书报告 【读书报告--01】神 阅读全文
posted @ 2018-12-17 16:21 郑锦伟 阅读(140) 评论(0) 推荐(0) 编辑
摘要: 1.卷积神经网络的激活函数--Relu 使用新的激活函数--Relu,公式如下: 2.卷积神经网络的网络架构:卷积层、Pooling层(也叫池化层)、全连接层 2.1卷积层的计算公式: 其中D为卷积层的深度 附:图像大小、步幅和卷积后的Feature Map大小关系: W、H:卷积前原图像的宽、高( 阅读全文
posted @ 2018-12-17 16:13 郑锦伟 阅读(145) 评论(0) 推荐(0) 编辑
摘要: 1.神经元 神经元和感知器本质上是一样的,只不过我们说感知器的时候,它的激活函数是阶跃函数;而当我们说神经元时,激活函数往往选择为sigmoid函数或tanh函数 2.神经网络的训练 现在,我们需要知道一个神经网络的每个连接上的权值是如何得到的。我们可以说神经网络是一个模型,那么这些权值就是模型的参 阅读全文
posted @ 2018-12-17 15:48 郑锦伟 阅读(197) 评论(0) 推荐(0) 编辑
摘要: 1.线性单元 定义:使用一个可导的线性函数来替代感知器的阶跃函数,这种感知器就叫做线性单元 个人理解:感知器还是那个感知器,只是激活函数变成一个可导的线性函数:如f(x)=x 如下图:线性单元与前面所学的感知器(使用阶跃函数)的对比,只有激活函数改为”可导的线性函数“ 2.监督学习和无监督学习的概念 阅读全文
posted @ 2018-12-17 15:35 郑锦伟 阅读(161) 评论(0) 推荐(0) 编辑
摘要: 一、感知器 1.神经网络和感知器 神经网络结构包含输入层、隐藏层(可以有多层)、输出层,如下图所示 其中每个神经元是一个感知器,感知器的结构组成部分:输入权值、激活函数、输出 ps:激活函数可以有很多种选择,而感知器的输出由 y=f(w*x+b)来计算 感知器结构如下图: 2.感知器的训练:(个人觉 阅读全文
posted @ 2018-12-17 15:03 郑锦伟 阅读(297) 评论(0) 推荐(0) 编辑
摘要: 1 手机和电脑用数据线连接 在电脑上下载360手机助手,并通过数据线连接手机。首次连接需要安装对应的手机驱动程序。(手机最好也下一个连接助理以保证连接的通畅),进入到保存微信跳一跳资源包的路径并复制下来 进入cmd命令窗口 输入adb命令 adb devices 可以查看连接的Android设备的信 阅读全文
posted @ 2018-06-29 23:45 郑锦伟 阅读(217) 评论(0) 推荐(0) 编辑
摘要: http://www.cnblogs.com/lbliang/p/9180413.html 阅读全文
posted @ 2018-06-13 23:04 郑锦伟 阅读(71) 评论(0) 推荐(0) 编辑
摘要: 一、团队作业 http://www.yzhiliao.com/course/65/task/444/show 二、个人作业 团队项目码云地址: 前端: https://gitee.com/lbliang/project_view 后台: https://gitee.com/lbliang/proje 阅读全文
posted @ 2018-05-23 21:11 郑锦伟 阅读(123) 评论(1) 推荐(0) 编辑
摘要: 团队作业链接: http://www.cnblogs.com/lbliang/p/8982235.html 阅读全文
posted @ 2018-05-02 22:59 郑锦伟 阅读(113) 评论(0) 推荐(0) 编辑
摘要: 第6次结对作业 在线英语学习平台客户端原型 1.结对成员 郑锦伟 2015034643034 古维城 2015034643033 2.原型设计工具实现-Photoshop 3.需求分析 使用NABCD模型进行需求分析 3.1 N(Need, 需求) 3.1.1具体功能和数据需求 3.1.1.1 登录 阅读全文
posted @ 2018-04-26 00:11 郑锦伟 阅读(240) 评论(5) 推荐(0) 编辑