博客园 - 向前奔跑的少年
uuid:24b78886-0ed1-41c2-8670-e3f31dcf42c4;id=83517
2019-01-23T06:53:33Z
向前奔跑的少年
https://www.cnblogs.com/kk17/
feed.cnblogs.com
https://www.cnblogs.com/kk17/p/10274540.html
将博客搬至CSDN - 向前奔跑的少年
嘻嘻哈哈嘿嘿
2019-01-15T14:02:00Z
2019-01-15T14:02:00Z
向前奔跑的少年
https://www.cnblogs.com/kk17/
【摘要】嘻嘻哈哈嘿嘿 <a href="https://www.cnblogs.com/kk17/p/10274540.html" target="_blank">阅读全文</a>
https://www.cnblogs.com/kk17/p/10274413.html
[NLP/Attention]关于attention机制在nlp中的应用总结 - 向前奔跑的少年
原文链接: https://blog.csdn.net/qq_41058526/article/details/80578932 <! flowchart 箭头图标 勿删 attention 总结 参考:注意力机制(Attention Mechanism)在自然语言处理中的应用 Attention函
2019-01-15T13:33:00Z
2019-01-15T13:33:00Z
向前奔跑的少年
https://www.cnblogs.com/kk17/
【摘要】原文链接: https://blog.csdn.net/qq_41058526/article/details/80578932 <! flowchart 箭头图标 勿删 attention 总结 参考:注意力机制(Attention Mechanism)在自然语言处理中的应用 Attention函 <a href="https://www.cnblogs.com/kk17/p/10274413.html" target="_blank">阅读全文</a>
https://www.cnblogs.com/kk17/p/10264617.html
马尔科夫随机场模型(MRF-Markov Random Field) - 向前奔跑的少年
原文: http://blog.sina.com.cn/s/blog_92c398b00102vs3q.html 马尔科夫过程 隐马尔科夫过程 与马尔科夫相比,隐马尔可夫模型则是双重随机过程,不仅状态转移之间是个随机事件,状态和输出之间也是一个随机过程。 领域系统 分阶领域系统与子团 马尔科夫
2019-01-13T15:28:00Z
2019-01-13T15:28:00Z
向前奔跑的少年
https://www.cnblogs.com/kk17/
【摘要】原文: http://blog.sina.com.cn/s/blog_92c398b00102vs3q.html 马尔科夫过程 隐马尔科夫过程 与马尔科夫相比,隐马尔可夫模型则是双重随机过程,不仅状态转移之间是个随机事件,状态和输出之间也是一个随机过程。 领域系统 分阶领域系统与子团 马尔科夫 <a href="https://www.cnblogs.com/kk17/p/10264617.html" target="_blank">阅读全文</a>
https://www.cnblogs.com/kk17/p/10262688.html
[Pytorch]深度模型的显存计算以及优化 - 向前奔跑的少年
原文链接:https://oldpan.me/archives/how to calculate gpu memory 前言 亲,显存炸了,你的显卡快冒烟了! torch.FatalError: cuda runtime error (2) : out of memory at /opt/conda
2019-01-13T07:29:00Z
2019-01-13T07:29:00Z
向前奔跑的少年
https://www.cnblogs.com/kk17/
【摘要】原文链接:https://oldpan.me/archives/how to calculate gpu memory 前言 亲,显存炸了,你的显卡快冒烟了! torch.FatalError: cuda runtime error (2) : out of memory at /opt/conda <a href="https://www.cnblogs.com/kk17/p/10262688.html" target="_blank">阅读全文</a>
https://www.cnblogs.com/kk17/p/10252440.html
[loss]Triphard loss优雅的写法 - 向前奔跑的少年
之前一直自己手写各种triphard,triplet损失函数, 写的比较暴力,然后今天一个学长给我在github上看了一个别人的triphard的写法,一开始没看懂,用的pytorch函数没怎么见过,看懂了之后, 被惊艳到了。。因此在此记录一下,以及详细注释一下
2019-01-10T13:13:00Z
2019-01-10T13:13:00Z
向前奔跑的少年
https://www.cnblogs.com/kk17/
【摘要】之前一直自己手写各种triphard,triplet损失函数, 写的比较暴力,然后今天一个学长给我在github上看了一个别人的triphard的写法,一开始没看懂,用的pytorch函数没怎么见过,看懂了之后, 被惊艳到了。。因此在此记录一下,以及详细注释一下 <a href="https://www.cnblogs.com/kk17/p/10252440.html" target="_blank">阅读全文</a>
https://www.cnblogs.com/kk17/p/10252238.html
[Pytorch]Pytorch中tensor常用语法 - 向前奔跑的少年
原文地址:https://zhuanlan.zhihu.com/p/31494491 上次我总结了在PyTorch中建立随机数Tensor的多种方法的区别。这次我把常用的Tensor的数学运算总结到这里,以防自己在使用PyTorch做实验时,忘记这些方法应该传什么参数。总结的方法包括:Tensor求
2019-01-10T12:30:00Z
2019-01-10T12:30:00Z
向前奔跑的少年
https://www.cnblogs.com/kk17/
【摘要】原文地址:https://zhuanlan.zhihu.com/p/31494491 上次我总结了在PyTorch中建立随机数Tensor的多种方法的区别。这次我把常用的Tensor的数学运算总结到这里,以防自己在使用PyTorch做实验时,忘记这些方法应该传什么参数。总结的方法包括:Tensor求 <a href="https://www.cnblogs.com/kk17/p/10252238.html" target="_blank">阅读全文</a>
https://www.cnblogs.com/kk17/p/10246324.html
[pytorch]pytorch loss function 总结 - 向前奔跑的少年
原文: http://www.voidcn.com/article/p rtzqgqkz bpg.html <! 正文顶部广告 (adsbygoogle = window.adsbygoogle || []).push({}); 最近看了下 PyTorch 的损失函数文档,整理了下自己的理解,重新格
2019-01-09T11:11:00Z
2019-01-09T11:11:00Z
向前奔跑的少年
https://www.cnblogs.com/kk17/
【摘要】原文: http://www.voidcn.com/article/p rtzqgqkz bpg.html <! 正文顶部广告 (adsbygoogle = window.adsbygoogle || []).push({}); 最近看了下 PyTorch 的损失函数文档,整理了下自己的理解,重新格 <a href="https://www.cnblogs.com/kk17/p/10246324.html" target="_blank">阅读全文</a>
https://www.cnblogs.com/kk17/p/10246133.html
[Pytorch]Pytorch的tensor变量类型转换 - 向前奔跑的少年
原文:https://blog.csdn.net/hustchenze/article/details/79154139 Pytorch的数据类型为各式各样的Tensor,Tensor可以理解为高维矩阵。与Numpy中的Array类似。Pytorch中的tensor又包括CPU上的数据类型和GPU上
2019-01-09T10:26:00Z
2019-01-09T10:26:00Z
向前奔跑的少年
https://www.cnblogs.com/kk17/
【摘要】原文:https://blog.csdn.net/hustchenze/article/details/79154139 Pytorch的数据类型为各式各样的Tensor,Tensor可以理解为高维矩阵。与Numpy中的Array类似。Pytorch中的tensor又包括CPU上的数据类型和GPU上 <a href="https://www.cnblogs.com/kk17/p/10246133.html" target="_blank">阅读全文</a>
https://www.cnblogs.com/kk17/p/10239979.html
[Pytorch]Pytorch中图像的基本操作(TenCrop) - 向前奔跑的少年
转自:https://www.jianshu.com/p/73686691cf13 下面是几种常写的方式 第一种方式 normalize = transforms.Normalize([0.485, 0.456, 0.406], [0.229, 0.224, 0.225]) transformLis
2019-01-08T09:02:00Z
2019-01-08T09:02:00Z
向前奔跑的少年
https://www.cnblogs.com/kk17/
【摘要】转自:https://www.jianshu.com/p/73686691cf13 下面是几种常写的方式 第一种方式 normalize = transforms.Normalize([0.485, 0.456, 0.406], [0.229, 0.224, 0.225]) transformLis <a href="https://www.cnblogs.com/kk17/p/10239979.html" target="_blank">阅读全文</a>
https://www.cnblogs.com/kk17/p/10188105.html
caffe深度学习网络(.prototxt)在线可视化工具:Netscope Editor - 向前奔跑的少年
http://ethereon.github.io/netscope/ /editor 网址:http://ethereon.github.io/netscope/ /editor 将.prototxt中的内容输入到文本框中,然后按shift+enter键,就会得到可视化网络
2018-12-27T15:14:00Z
2018-12-27T15:14:00Z
向前奔跑的少年
https://www.cnblogs.com/kk17/
【摘要】http://ethereon.github.io/netscope/ /editor 网址:http://ethereon.github.io/netscope/ /editor 将.prototxt中的内容输入到文本框中,然后按shift+enter键,就会得到可视化网络 <a href="https://www.cnblogs.com/kk17/p/10188105.html" target="_blank">阅读全文</a>
https://www.cnblogs.com/kk17/p/10181971.html
[卷积]空洞卷积的改进 - 向前奔跑的少年
文章来源: https://zhuanlan.zhihu.com/p/50369448 从这几年的分割结果来看,基于空洞卷积的分割方法效果要好一些,为此,拿出两天时间来重新思考下空洞卷积问题。 . 语义分割创新该怎么做呢。引言空洞卷积(Dilated/Atrous Convolution),广泛应用
2018-12-26T13:33:00Z
2018-12-26T13:33:00Z
向前奔跑的少年
https://www.cnblogs.com/kk17/
【摘要】文章来源: https://zhuanlan.zhihu.com/p/50369448 从这几年的分割结果来看,基于空洞卷积的分割方法效果要好一些,为此,拿出两天时间来重新思考下空洞卷积问题。 . 语义分割创新该怎么做呢。引言空洞卷积(Dilated/Atrous Convolution),广泛应用 <a href="https://www.cnblogs.com/kk17/p/10181971.html" target="_blank">阅读全文</a>
https://www.cnblogs.com/kk17/p/10181829.html
[卷积核]空洞卷积(转) - 向前奔跑的少年
转自: https://www.cnblogs.com/hellcat/p/9687624.html 目录一、空洞卷积的提出二、空洞卷积原理三、空洞卷积问题感受野跳跃小尺度物体检测四、网络设计研究五、常用框架API介绍TensorFlow接口MXNet接口六、参考来源 回到顶部一、空洞卷积
2018-12-26T13:09:00Z
2018-12-26T13:09:00Z
向前奔跑的少年
https://www.cnblogs.com/kk17/
【摘要】转自: https://www.cnblogs.com/hellcat/p/9687624.html 目录一、空洞卷积的提出二、空洞卷积原理三、空洞卷积问题感受野跳跃小尺度物体检测四、网络设计研究五、常用框架API介绍TensorFlow接口MXNet接口六、参考来源 回到顶部一、空洞卷积 <a href="https://www.cnblogs.com/kk17/p/10181829.html" target="_blank">阅读全文</a>
https://www.cnblogs.com/kk17/p/10164624.html
[place recognition]NetVLAD: CNN architecture for weakly supervised place recognition 论文翻译及解析(转) - 向前奔跑的少年
https://blog.csdn.net/qq_32417287/article/details/80102466 <! flowchart 箭头图标 勿删 abstract introduction method overview Deep architecture for place reco
2018-12-23T08:12:00Z
2018-12-23T08:12:00Z
向前奔跑的少年
https://www.cnblogs.com/kk17/
【摘要】https://blog.csdn.net/qq_32417287/article/details/80102466 <! flowchart 箭头图标 勿删 abstract introduction method overview Deep architecture for place reco <a href="https://www.cnblogs.com/kk17/p/10164624.html" target="_blank">阅读全文</a>
https://www.cnblogs.com/kk17/p/10162574.html
[优化]深度学习中的 Normalization 模型 - 向前奔跑的少年
来源:https://www.chainnews.com/articles/504060702149.htm 机器之心专栏作者:张俊林Batch Normalization (简称 BN)自从提出之后,因为效果特别好,很快被作为深度学习的标准工具应用在了各种场合。BN 大法虽然好,但是也存在一些局限
2018-12-22T13:38:00Z
2018-12-22T13:38:00Z
向前奔跑的少年
https://www.cnblogs.com/kk17/
【摘要】来源:https://www.chainnews.com/articles/504060702149.htm 机器之心专栏作者:张俊林Batch Normalization (简称 BN)自从提出之后,因为效果特别好,很快被作为深度学习的标准工具应用在了各种场合。BN 大法虽然好,但是也存在一些局限 <a href="https://www.cnblogs.com/kk17/p/10162574.html" target="_blank">阅读全文</a>
https://www.cnblogs.com/kk17/p/10162510.html
[调参]batch_size的选择 - 向前奔跑的少年
链接:https://www.zhihu.com/question/61607442/answer/440944387 首先反对上面的尽可能调大batch size的说法,在现在较前沿的视角来看,这种观点无疑是有些滞后的。 关于这个问题,我们来看下深度学习三巨头之一的LeCun杨乐春同
2018-12-22T13:19:00Z
2018-12-22T13:19:00Z
向前奔跑的少年
https://www.cnblogs.com/kk17/
【摘要】链接:https://www.zhihu.com/question/61607442/answer/440944387 首先反对上面的尽可能调大batch size的说法,在现在较前沿的视角来看,这种观点无疑是有些滞后的。 关于这个问题,我们来看下深度学习三巨头之一的LeCun杨乐春同 <a href="https://www.cnblogs.com/kk17/p/10162510.html" target="_blank">阅读全文</a>
https://www.cnblogs.com/kk17/p/10156849.html
[调参]CV炼丹技巧/经验 - 向前奔跑的少年
转自:https://www.zhihu.com/question/25097993 我和@杨军类似, 也是半路出家. 现在的工作内容主要就是使用CNN做CV任务. 干调参这种活也有两年时间了. 我的回答可能更多的还是侧重工业应用, 技术上只限制在CNN这块. 先说下我的观点, 调参就是trial
2018-12-21T09:00:00Z
2018-12-21T09:00:00Z
向前奔跑的少年
https://www.cnblogs.com/kk17/
【摘要】转自:https://www.zhihu.com/question/25097993 我和@杨军类似, 也是半路出家. 现在的工作内容主要就是使用CNN做CV任务. 干调参这种活也有两年时间了. 我的回答可能更多的还是侧重工业应用, 技术上只限制在CNN这块. 先说下我的观点, 调参就是trial <a href="https://www.cnblogs.com/kk17/p/10156849.html" target="_blank">阅读全文</a>
https://www.cnblogs.com/kk17/p/10156160.html
[Pytorch]Pytorch加载预训练模型(转) - 向前奔跑的少年
转自:https://blog.csdn.net/Vivianyzw/article/details/81061765 东风的地方1. 直接加载预训练模型在训练的时候可能需要中断一下,然后继续训练,也就是简单的从保存的模型中加载参数权重:net = SNet()net.load_state_dict
2018-12-21T07:46:00Z
2018-12-21T07:46:00Z
向前奔跑的少年
https://www.cnblogs.com/kk17/
【摘要】转自:https://blog.csdn.net/Vivianyzw/article/details/81061765 东风的地方1. 直接加载预训练模型在训练的时候可能需要中断一下,然后继续训练,也就是简单的从保存的模型中加载参数权重:net = SNet()net.load_state_dict <a href="https://www.cnblogs.com/kk17/p/10156160.html" target="_blank">阅读全文</a>
https://www.cnblogs.com/kk17/p/10155375.html
[Pytorch]Pytorch 细节记录(转) - 向前奔跑的少年
文章来源 https://www.cnblogs.com/king lps/p/8570021.html 1. PyTorch进行训练和测试时指定实例化的model模式为:train/eval eg: class VAE(nn.Module): def __init__(self): su
2018-12-21T05:58:00Z
2018-12-21T05:58:00Z
向前奔跑的少年
https://www.cnblogs.com/kk17/
【摘要】文章来源 https://www.cnblogs.com/king lps/p/8570021.html 1. PyTorch进行训练和测试时指定实例化的model模式为:train/eval eg: class VAE(nn.Module): def __init__(self): su <a href="https://www.cnblogs.com/kk17/p/10155375.html" target="_blank">阅读全文</a>
https://www.cnblogs.com/kk17/p/10139884.html
[PyTorch]论文pytorch复现中遇到的BUG - 向前奔跑的少年
[TOC] 1. zip argument 1 must support iteration 在多gpu训练的时候,自动把你的batch_size分成n_gpu份,每个gpu跑一些数据, 最后再合起来。我之所以出现这个bug是因为返回的时候 返回了一个常量。。 2. torch.nn.DataPar
2018-12-18T12:43:00Z
2018-12-18T12:43:00Z
向前奔跑的少年
https://www.cnblogs.com/kk17/
【摘要】[TOC] 1. zip argument 1 must support iteration 在多gpu训练的时候,自动把你的batch_size分成n_gpu份,每个gpu跑一些数据, 最后再合起来。我之所以出现这个bug是因为返回的时候 返回了一个常量。。 2. torch.nn.DataPar <a href="https://www.cnblogs.com/kk17/p/10139884.html" target="_blank">阅读全文</a>
https://www.cnblogs.com/kk17/p/10123607.html
[Opencv]图像的梯度与边缘检测(转) - 向前奔跑的少年
文章来源:https://blog.csdn.net/on2way/article/details/46851451 <! flowchart 箭头图标 勿删 梯度简单来说就是求导,在图像上表现出来的就是提取图像的边缘(不管是横向的、纵向的、斜方向的等等),所需要的无非也是一个核模板,模板的不同结果
2018-12-15T07:52:00Z
2018-12-15T07:52:00Z
向前奔跑的少年
https://www.cnblogs.com/kk17/
【摘要】文章来源:https://blog.csdn.net/on2way/article/details/46851451 <! flowchart 箭头图标 勿删 梯度简单来说就是求导,在图像上表现出来的就是提取图像的边缘(不管是横向的、纵向的、斜方向的等等),所需要的无非也是一个核模板,模板的不同结果 <a href="https://www.cnblogs.com/kk17/p/10123607.html" target="_blank">阅读全文</a>