摘要:3D U-Net这篇论文的诞生主要是为了处理一些块状图(volumetric images),基本的原理跟U-Net其实并无大差,因为3D U-Net就是用3D卷积操作替换了2D的,不过在这篇博文中我会按照论文的结构大概介绍一下整体的原理及结构运用。当然在原本的论文中,论文作者为了证实框架的可执行性 阅读全文
posted @ 2018-08-04 17:30 JieLongZ 阅读 (1618) 评论 (2) 编辑
摘要:由于项目需要,用U-NET跑一个程序来对医学影像进行分割(segmentation),因此跑去看了下这篇论文(paper),下面会介绍一下U-Net的框架及要点,如果哪里有写的不对的,或者好的建议,欢迎提出并纠正。 论文地址:https://arxiv.org/abs/1505.04597 1. 概 阅读全文
posted @ 2018-07-31 13:33 JieLongZ 阅读 (3357) 评论 (0) 编辑
摘要:Wide Residual Networks (WRNs)是2016年被提出的基于扩展通道数学习机制的卷积神经网络。对深度卷积神经网络有了解的应该知道随着网络越深性能越好,但是训练深度卷积神经网络存在着这样子那样子的问题,如梯度消失/弥散(gradient vanishing/exploding)。 阅读全文
posted @ 2019-10-25 16:35 JieLongZ 阅读 (182) 评论 (0) 编辑
摘要:在写Python程序的时候,特别是实现类方法的时候,通常会用到@staticmethod和@classmethod两种装饰器(function decorator),那这两个装饰器有什么作用呢?在这篇博文中将主要看看@classmethod是如何工作的。 @classmethod是Python内置( 阅读全文
posted @ 2019-10-22 10:57 JieLongZ 阅读 (658) 评论 (0) 编辑
摘要:其实ResNet这篇论文看了很多次了,也是近几年最火的算法模型之一,一直没整理出来(其实不是要到用可能也不会整理吧,懒字头上一把刀啊,主要是是为了将resnet作为encoder嵌入到unet架构中,自己复现模型然后在数据集上进行测试所以才决定进行整理),今天把它按照理解尽可能详细的解释清楚跟大家一 阅读全文
posted @ 2019-09-26 23:37 JieLongZ 阅读 (70) 评论 (0) 编辑
摘要:假设一个卷积层的输入的特征图(feature maps)数量(input channels)为“n”,输出为特征图数量为“m”,卷积核(kernel size)为“k”。假设我们处理的是一个2D的卷积操作,卷积层对应的输入的参数量为k * k * n,与此同时,由于输出为m通道的特征图数量,为了映射 阅读全文
posted @ 2019-09-14 21:23 JieLongZ 阅读 (230) 评论 (0) 编辑
摘要:归一化和标准化是机器学习和深度学习中经常使用两种feature scaling的方式,这里主要讲述以下这两种feature scaling的方式如何计算,以及一般在什么情况下使用。 归一化的计算方式: 上述计算公式可以将特征的值规范在[0, 1]之间,使用归一化来进行feature scaling一 阅读全文
posted @ 2019-09-11 23:37 JieLongZ 阅读 (253) 评论 (0) 编辑
摘要:停更博客好长一段时间了,其实并不是没写了,而是转而做笔记了,但是发现做笔记其实印象无法更深刻,因此决定继续以写博客来记录或者复习巩固所学的知识,与此同时跟大家分享下自己对深度学习或者机器学习相关的知识点,当然浅薄之见如有说错表达错误的,欢迎大家指出来。废话不多说,进入今天的主题:Batch Norm 阅读全文
posted @ 2019-09-11 23:23 JieLongZ 阅读 (243) 评论 (0) 编辑
摘要:如何有效的将文本向量化是自然语言处理(Natural Language Processing: NLP)领域非常重要的一个研究方向。传统的文本向量化可以用独热编码(one-hot encoding)、词袋模型(bag-of-words)和TF-IDF等方式,但是以上得到的文本向量可能维度都很高,在一 阅读全文
posted @ 2019-02-21 17:00 JieLongZ 阅读 (321) 评论 (0) 编辑
摘要:分词(Tokenization) - NLP学习(1) N-grams模型、停顿词(stopwords)和标准化处理 - NLP学习(2) 文本向量化及词袋模型 - NLP学习(3-1) 在上一篇博文中,简单地阐述了如何将文本向量化及词袋模型的。文本向量化是为了将文本转换成机器学习算法可以直接处理的 阅读全文
posted @ 2019-02-14 16:48 JieLongZ 阅读 (369) 评论 (0) 编辑
摘要:之前在其他博客文章有提到如何对英文进行分词,也说后续会增加解释我们中文是如何分词的,我们都知道英文或者其他国家或者地区一些语言文字是词与词之间有空格(分隔符),这样子分词处理起来其实是要相对容易很多,但是像中文处理起来就没有那么容易,因为中文字与字之间,词与词之间都是紧密连接在一起的,所以第一件事需 阅读全文
posted @ 2019-02-12 23:39 JieLongZ 阅读 (794) 评论 (0) 编辑
摘要:分词(Tokenization) - NLP学习(1) N-grams模型、停顿词(stopwords)和标准化处理 - NLP学习(2) 之前我们都了解了如何对文本进行处理:(1)如用NLTK文本处理库将文本的句子成分分成了N-Gram模型,与此同时引入了正则表达式去除一些多余的句子成分;(2)将 阅读全文
posted @ 2019-02-11 15:57 JieLongZ 阅读 (849) 评论 (0) 编辑