摘要:
众所周知,深度学神经网络的成功训练离不开大量的标注样本。在本文中,我们提出了一种网络和训练策略,该策略依赖于强大的数据扩充来更有效地使用现有的标注样本。本文的网络架构由捕捉上下文的收缩路径和实现精确定位的对称扩展路径组成。我们证明了,这样的网络能够使用极少的图像进行端到端的训练,并且优于之前的ISBI挑战赛的最好方法(滑动窗口卷积网络),在该赛事中,研究电子显微镜图像堆栈下神经元结构的分割。 阅读全文
众所周知,深度学神经网络的成功训练离不开大量的标注样本。在本文中,我们提出了一种网络和训练策略,该策略依赖于强大的数据扩充来更有效地使用现有的标注样本。本文的网络架构由捕捉上下文的收缩路径和实现精确定位的对称扩展路径组成。我们证明了,这样的网络能够使用极少的图像进行端到端的训练,并且优于之前的ISBI挑战赛的最好方法(滑动窗口卷积网络),在该赛事中,研究电子显微镜图像堆栈下神经元结构的分割。 阅读全文
posted @ 2020-11-26 22:57
GShang
阅读(1894)
评论(3)
推荐(1)

浙公网安备 33010602011771号