摘要:嘻嘻哈哈嘿嘿 阅读全文
posted @ 2019-01-15 22:02 向前奔跑的少年 阅读(357) 评论(2) 推荐(0) 编辑
摘要:原文链接: https://blog.csdn.net/qq_41058526/article/details/80578932 <! flowchart 箭头图标 勿删 attention 总结 参考:注意力机制(Attention Mechanism)在自然语言处理中的应用 Attention函 阅读全文
posted @ 2019-01-15 21:33 向前奔跑的少年 阅读(1027) 评论(0) 推荐(0) 编辑
摘要:原文: http://blog.sina.com.cn/s/blog_92c398b00102vs3q.html 马尔科夫过程​ 隐马尔科夫过程​​ 与马尔科夫相比,隐马尔可夫模型则是双重随机过程,不仅状态转移之间是个随机事件,状态和输出之间也是一个随机过程。 领域系统 分阶领域系统与子团 马尔科夫 阅读全文
posted @ 2019-01-13 23:28 向前奔跑的少年 阅读(1857) 评论(0) 推荐(0) 编辑
摘要:原文链接:https://oldpan.me/archives/how to calculate gpu memory 前言 亲,显存炸了,你的显卡快冒烟了! torch.FatalError: cuda runtime error (2) : out of memory at /opt/conda 阅读全文
posted @ 2019-01-13 15:29 向前奔跑的少年 阅读(4438) 评论(0) 推荐(0) 编辑
摘要:之前一直自己手写各种triphard,triplet损失函数, 写的比较暴力,然后今天一个学长给我在github上看了一个别人的triphard的写法,一开始没看懂,用的pytorch函数没怎么见过,看懂了之后, 被惊艳到了。。因此在此记录一下,以及详细注释一下 阅读全文
posted @ 2019-01-10 21:13 向前奔跑的少年 阅读(1858) 评论(0) 推荐(0) 编辑
摘要:原文地址:https://zhuanlan.zhihu.com/p/31494491 上次我总结了在PyTorch中建立随机数Tensor的多种方法的区别。这次我把常用的Tensor的数学运算总结到这里,以防自己在使用PyTorch做实验时,忘记这些方法应该传什么参数。总结的方法包括:Tensor求 阅读全文
posted @ 2019-01-10 20:30 向前奔跑的少年 阅读(16952) 评论(0) 推荐(0) 编辑
摘要:原文: http://www.voidcn.com/article/p rtzqgqkz bpg.html <! 正文顶部广告 (adsbygoogle = window.adsbygoogle || []).push({}); 最近看了下 PyTorch 的损失函数文档,整理了下自己的理解,重新格 阅读全文
posted @ 2019-01-09 19:11 向前奔跑的少年 阅读(6678) 评论(0) 推荐(0) 编辑
摘要:原文:https://blog.csdn.net/hustchenze/article/details/79154139 Pytorch的数据类型为各式各样的Tensor,Tensor可以理解为高维矩阵。与Numpy中的Array类似。Pytorch中的tensor又包括CPU上的数据类型和GPU上 阅读全文
posted @ 2019-01-09 18:26 向前奔跑的少年 阅读(15276) 评论(0) 推荐(1) 编辑
摘要:转自:https://www.jianshu.com/p/73686691cf13 下面是几种常写的方式 第一种方式 normalize = transforms.Normalize([0.485, 0.456, 0.406], [0.229, 0.224, 0.225]) transformLis 阅读全文
posted @ 2019-01-08 17:02 向前奔跑的少年 阅读(5894) 评论(0) 推荐(0) 编辑
摘要:http://ethereon.github.io/netscope/ /editor 网址:http://ethereon.github.io/netscope/ /editor 将.prototxt中的内容输入到文本框中,然后按shift+enter键,就会得到可视化网络 阅读全文
posted @ 2018-12-27 23:14 向前奔跑的少年 阅读(823) 评论(0) 推荐(0) 编辑