会员
众包
新闻
博问
闪存
赞助商
HarmonyOS
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
持续学习的JielongZ
不积跬步无以至千里
博客园
首页
新随笔
联系
订阅
管理
[置顶]
3D U-Net卷积神经网络
摘要: 3D U-Net这篇论文的诞生主要是为了处理一些块状图(volumetric images),基本的原理跟U-Net其实并无大差,因为3D U-Net就是用3D卷积操作替换了2D的,不过在这篇博文中我会按照论文的结构大概介绍一下整体的原理及结构运用。当然在原本的论文中,论文作者为了证实框架的可执行性
阅读全文
posted @ 2018-08-04 17:30 JieLongZ
阅读(13946)
评论(6)
推荐(1)
[置顶]
U-Net卷积神经网络简要解析(附基于TensorFlow自己实现的代码参考)
摘要: 由于项目需要,用U-NET跑一个程序来对医学影像进行分割(segmentation),因此跑去看了下这篇论文(paper),下面会介绍一下U-Net的框架及要点,如果哪里有写的不对的,或者好的建议,欢迎提出并纠正。 论文地址:https://arxiv.org/abs/1505.04597 1. 概
阅读全文
posted @ 2018-07-31 13:33 JieLongZ
阅读(21796)
评论(2)
推荐(1)
2020年11月12日
ES6学习笔记(4)- 解构
摘要: 一、解构的意义 二、对象解构 三、数组解构
阅读全文
posted @ 2020-11-12 22:50 JieLongZ
阅读(79)
评论(0)
推荐(0)
ES6学习笔记(3)- 对象的功能性扩展
摘要: 一、什么是对象字面量 对象字面量就是创建对象(Object)的一种简单容易理解的方式,再通俗点就是所谓的键值对的集合。举个简单的例子: let book = { name: 'JavaScript', price: 12, }; 但是对象字面量存在一点小问题,那就是再创建对象的时候需要对属性的值(如
阅读全文
posted @ 2020-11-12 22:44 JieLongZ
阅读(116)
评论(0)
推荐(0)
2020年10月25日
ES6学习笔记(2)- 箭头函数
摘要: 1. 箭头函数声明 箭头函数的声明方式示例: 1 const printValue = (condition) => { 2 let testValue = 55; 3 if (condition) { 4 console.log(testValue); 5 } else { 6 console.l
阅读全文
posted @ 2020-10-25 20:26 JieLongZ
阅读(120)
评论(0)
推荐(0)
ES6学习笔记(1)- 块级作用域
摘要: 1. var声明变量和变量提升(Hoisting)机制的问题 在JS中通过var关键字声明的变量,无论在函数作用域中亦或是全局作用域中,都会被当成当前作用域顶部的变量,和就是所谓的提升机制(Hoisting)。但是提升机制会带来一个问题就是,预编译阶段JS引擎会将变量提升至作用域顶部,但是初始化操作
阅读全文
posted @ 2020-10-25 17:09 JieLongZ
阅读(159)
评论(0)
推荐(0)
2020年5月11日
1x1卷据层的作用
摘要: 1. 尽管1x1的卷据不会捕捉空间特征(spatial features/patterns,直观点说就是2D平面图的纹理特征),但是他们能很好基于通道(channel-wise/along the depth dimension)的特征学习; 2. 由于是基于通道上的学习,因此他们能输出更少的特征图
阅读全文
posted @ 2020-05-11 21:37 JieLongZ
阅读(279)
评论(0)
推荐(0)
2019年10月25日
解析Wide Residual Networks
摘要: Wide Residual Networks (WRNs)是2016年被提出的基于扩展通道数学习机制的卷积神经网络。对深度卷积神经网络有了解的应该知道随着网络越深性能越好,但是训练深度卷积神经网络存在着这样子那样子的问题,如梯度消失/弥散(gradient vanishing/exploding)。
阅读全文
posted @ 2019-10-25 16:35 JieLongZ
阅读(3580)
评论(0)
推荐(2)
2019年9月26日
ResNet论文笔记
摘要: 其实ResNet这篇论文看了很多次了,也是近几年最火的算法模型之一,一直没整理出来(其实不是要到用可能也不会整理吧,懒字头上一把刀啊,主要是是为了将resnet作为encoder嵌入到unet架构中,自己复现模型然后在数据集上进行测试所以才决定进行整理),今天把它按照理解尽可能详细的解释清楚跟大家一
阅读全文
posted @ 2019-09-26 23:37 JieLongZ
阅读(1160)
评论(0)
推荐(0)
2019年9月14日
卷积的参数计算
摘要: 假设一个卷积层的输入的特征图(feature maps)数量(input channels)为“n”,输出为特征图数量为“m”,卷积核(kernel size)为“k”。假设我们处理的是一个2D的卷积操作,卷积层对应的输入的参数量为k * k * n,与此同时,由于输出为m通道的特征图数量,为了映射
阅读全文
posted @ 2019-09-14 21:23 JieLongZ
阅读(1804)
评论(0)
推荐(0)
2019年9月11日
归一化(Normalization)和标准化(Standardization)
摘要: 归一化和标准化是机器学习和深度学习中经常使用两种feature scaling的方式,这里主要讲述以下这两种feature scaling的方式如何计算,以及一般在什么情况下使用。 归一化的计算方式: 上述计算公式可以将特征的值规范在[0, 1]之间,使用归一化来进行feature scaling一
阅读全文
posted @ 2019-09-11 23:37 JieLongZ
阅读(3142)
评论(0)
推荐(0)
解开Batch Normalization的神秘面纱
摘要: 停更博客好长一段时间了,其实并不是没写了,而是转而做笔记了,但是发现做笔记其实印象无法更深刻,因此决定继续以写博客来记录或者复习巩固所学的知识,与此同时跟大家分享下自己对深度学习或者机器学习相关的知识点,当然浅薄之见如有说错表达错误的,欢迎大家指出来。废话不多说,进入今天的主题:Batch Norm
阅读全文
posted @ 2019-09-11 23:23 JieLongZ
阅读(1372)
评论(2)
推荐(1)
下一页
公告