摘要: transform.ToTensor(), transform.Normalize(mean=(0.5,0.5,0.5),std=(0.5,0.5,0.5)) 那transform.Normalize()是怎么工作的呢?以上面代码为例,ToTensor()能够把灰度范围从0-255变换到0-1之间, 阅读全文
posted @ 2020-10-22 15:50 OliYoung 阅读(4713) 评论(0) 推荐(0)
摘要: 在检索技术中,索引一直需要研究的核心技术。当下,索引技术主要分为三类:基于树的索引技术(tree-based index)、基于哈希的索引技术(hashing-based index)与基于词的倒排索引(visual words based inverted index)。在检索中,需要解决的问题是 阅读全文
posted @ 2020-10-19 20:20 OliYoung 阅读(471) 评论(0) 推荐(0)
摘要: 哈希表(hash table)也叫散列表,是一种非常重要的数据结构,应用场景及其丰富,许多缓存技术(比如memcached)的核心其实就是在内存中维护一张大的哈希表 一、什么是哈希表 在讨论哈希表之前,我们先大概了解下其他数据结构在新增,查找等基础操作执行性能 数组:采用一段连续的存储单元来存储数据 阅读全文
posted @ 2020-10-19 17:39 OliYoung 阅读(414) 评论(0) 推荐(0)
摘要: 首先通过: torch.cuda.is_available() 看你的pytorch是否支持CUDA计算,确认支持后: 1.在终端执行程序时设置使用GPU: CUDA_VISIBLE_DEVICES=1 python train.py Environment Variable Syntax Resu 阅读全文
posted @ 2020-10-16 12:50 OliYoung 阅读(6194) 评论(0) 推荐(0)
摘要: Pycharm 断点调试(Debug)时使用控制台(Console)打印或操作变量(类似于wing6.0) 20190820更新:最近发现直接在debug时按下运行部分代码的快捷键,即可直接呼出Alt + Shift + E Pycharm是个很强大的工具,工作过程中我们经常会用到Debug进行程序 阅读全文
posted @ 2020-10-15 21:55 OliYoung 阅读(1632) 评论(1) 推荐(0)
摘要: step into:单步执行,遇到子函数就进入并且继续单步执行(简而言之,进入子函数); step over:在单步执行时,在函数内遇到子函数时不会进入子函数内单步执行,而是将子函数整个执行完再停止,也就是把子函数整个作为一步。有一点,经过我们简单的调试,在不存在子函数的情况下是和step into 阅读全文
posted @ 2020-10-13 22:11 OliYoung 阅读(966) 评论(0) 推荐(0)
摘要: 一、LMDB简要介绍 LMDB(Lightning Memory-Mapped Database),是一个读存速度很快的内存映射型数据库,其属于Key-Value数据库,而不是关系型数据库( 如MySQL ),提供数据管理功能,可以将各种各样的原始数据转换为统一的Key-Value存储,用在深度学习 阅读全文
posted @ 2020-10-13 15:01 OliYoung 阅读(1564) 评论(0) 推荐(0)
摘要: random模块使用Mersenne Twister算法来计算生成随机数。这是一个确定性算法,但是可以通过random.seed()函数修改初始化种子[1]。比如: random.seed() # Seed based on system time or os.urandom() random.se 阅读全文
posted @ 2020-10-12 21:38 OliYoung 阅读(268) 评论(0) 推荐(0)
摘要: 译自:https://jalammar.github.io/illustrated-transformer/ 在之前的文章中作者介绍了Attention机制,在处理当下的深度学习任务中attention机制无处不在,他可以提升机器翻译应用的表现。在接下来的这篇文章中作者将介绍Transformer, 阅读全文
posted @ 2020-10-01 17:04 OliYoung 阅读(2331) 评论(0) 推荐(0)
摘要: import numpy as np y = np.array([1, 0, 0]) z = np.array([0.2, 0.1, -0.1]) y_pred = np.exp(z) / np.exp(z).sum() loss = (-y * np.log(y_pred)).sum() prin 阅读全文
posted @ 2020-09-24 22:03 OliYoung 阅读(154) 评论(0) 推荐(0)