2020年9月12日
摘要: 背景: 生成式对抗网络(GAN, Generative Adversarial Networks )是一种深度学习模型,是近年来复杂分布上无监督学习最具前景的方法之一。模型通过框架中(至少)两个模块:生成模型(Generative Model)和判别模型(Discriminative Model)的 阅读全文
posted @ 2020-09-12 20:01 lsccc 阅读(186) 评论(0) 推荐(0) 编辑
  2020年8月22日
摘要: 循环神经网络 背景: 循环神经网络是一类以序列数据为输入,在序列的演进方向进行递归且所有节点按链式连接的递归神经网络。 对循环神经网络的研究始于二十世纪80-90年代,并在二十一世纪初发展为深度学习算法之一,其中双向循环神经网络和长短期记忆网络(是常见的的循环神经网络。 循环神经网络具有记忆性、参数 阅读全文
posted @ 2020-08-22 12:49 lsccc 阅读(243) 评论(0) 推荐(0) 编辑
  2020年8月15日
摘要: 代码练习 1.完善HybridSN高光谱分类网络 三维卷积部分:conv1:(1, 30, 25, 25), 8个7x3x3 的卷积核 ==>(8, 24, 23, 23)conv2:(8, 24, 23, 23), 16个 5x3x3 的卷积核 ==>(16, 20, 21, 21)conv3:( 阅读全文
posted @ 2020-08-15 17:58 lsccc 阅读(295) 评论(0) 推荐(0) 编辑
  2020年8月8日
摘要: 【第一部分】 问题总结 1.为什么每次训练完的结果会有不同,虽然相差不大,但是数据会不稳定 2.怎么样知道修改过后的网络会不会有提升 【第二部分】 论文及代码练习 MobileNetV1 网络 import torch import torch.nn as nn import torch.nn.fu 阅读全文
posted @ 2020-08-08 18:13 lsccc 阅读(330) 评论(0) 推荐(0) 编辑
  2020年8月1日
摘要: 【第一部分】 视频学习心得及问题总结 一:深层网络的局部极小值是非凸的激活函数导致的吗?如果是,为何不用凸激活函数? 1.深层网络的局部极小值主要是多个隐层复合所致。 2.ReLu就是凸激活函数,但多个凸激活函数的复合也不一定是凸的:比如f(x)=exp(-x)在x>0时凸,但f(f(x))就是非凸 阅读全文
posted @ 2020-08-01 16:01 lsccc 阅读(305) 评论(0) 推荐(0) 编辑
  2020年7月25日
摘要: 【第一部分】视频学习心得及问题总结 绪论 什么是人工智能? 人工智能是使一个机器像人一样进行感知、认知、决策、执行的人工程序或系统。 图灵测试:假设在一个封闭空间中,完成一个任务,外部人员能否判断出完成这个任务的是机器还是人。 人工智能三个层面:计算智能(能存能算)、感知智能(能听会说,能看会认)、 阅读全文
posted @ 2020-07-25 15:51 lsccc 阅读(555) 评论(0) 推荐(0) 编辑
  2020年7月17日
摘要: 你为什么要读研?为什么选择中国海洋大学?这是我在备考阶段问及次数最多的问题。很多人都会说研究生毕业会有更好的选择,会有更多的就业机会。这些我全都承认,而我的回答更多是因为“喜欢“二字。在别人角度来看,我的回答略显敷衍,但是这确实是我最真实的想法。做错了高考理综物理的一道大题,让我与中国海洋大学失之交 阅读全文
posted @ 2020-07-17 10:27 lsccc 阅读(133) 评论(1) 推荐(0) 编辑