摘要: 转载请注明出处 一、背景 我们从最最最简单的场景开始,假设在一个二维平面上,现有N个点,如下图所示 现在给你一个点,求K个最近的点(欧式距离),如下图所示 肉眼很容易可以看出,以query点为中心画个圆,慢慢往外扩展,直到包含K个点,然后这K个点就是最近的点。 看起来很容易,但这得给算法实现个眼睛啊 阅读全文
posted @ 2022-10-05 17:30 ERKE 阅读(344) 评论(0) 推荐(2) 编辑
摘要: 在重复图识别领域,对于识别肉眼相同图片,感知哈希效果是很鲁棒的。上一篇文章 [【PHash】更懂人眼的感知哈希](https://blog.csdn.net/ERKELIU/article/details/110947023) 介绍的PHash识别效果很好,但是它有一个缺点,只关注低频信息,并没有关注图片的空间信息,极端情况就可能出现完全不同的两张图片,phash值很近。而WHash利用小波变换不仅重点关注低频信息,同时也关注图片的空间信息。 阅读全文
posted @ 2020-12-12 12:46 ERKE 阅读(522) 评论(0) 推荐(0) 编辑
摘要: 在一些图像相关的项目中,重复图识别是很重要的。就比如**热图排行榜**(需要识别出重复图);涉及**图像深度学习**的项目(训练数据需要剔除重复图);**图片原创&视频原创**(需要识别出重复图)等等。 阅读全文
posted @ 2020-12-10 08:54 ERKE 阅读(1902) 评论(0) 推荐(2) 编辑
摘要: 在重复图识别领域,对于识别肉眼相同图片,PHash是很有用的,而且算法复杂度很低。它抓住了 ” 人眼对于细节信息不是很敏感 “ 的特性,利用DCT变换把高频信息去掉,再加上合适&简单的二值化方式,使得算法效果比较鲁棒。 阅读全文
posted @ 2020-12-09 19:07 ERKE 阅读(2477) 评论(0) 推荐(1) 编辑
摘要: 对 布隆过滤器 画个重点,它应该在 “过滤” 二字上,这个算法的重点在于把曾经来过跟从未来过的事物区分开,具体过滤那种事物(曾经来过or从未来过),由具体场景决定。它一般用于数据库存储中过滤不存在的行(减少访问磁盘),推荐系统去重等等场景。 阅读全文
posted @ 2020-12-14 11:30 ERKE 阅读(607) 评论(2) 推荐(0) 编辑
摘要: 在互联网公司中,每个项目都需要数据统计、分析,便于项目组利用详细数据研究项目的整体情况,进行下一步的调整。在数据统计中,UV统计是最常见的,也是最普遍的。有的场景要求实时性很高,有点场景要求准确性很高,有的场景比较在意计算过程中的内存。不同的场景使用不同的算法,下面我们从0到1简单介绍下UV统计领域。 阅读全文
posted @ 2020-12-13 23:32 ERKE 阅读(620) 评论(0) 推荐(1) 编辑
摘要: 图示池化层(前向传播) 池化层其实和卷积层有点相似,有个类似卷积核的窗口按照固定的步长在移动,每个窗口做一定的操作,按照这个操作的类型可以分为两种池化层: MAC (max pooling)在窗口中取最大值当做结果 AVG (average pooling)在窗口中取平均值当做结果 池化层的反向传播 阅读全文
posted @ 2017-10-18 12:54 ERKE 阅读(1203) 评论(0) 推荐(0) 编辑
摘要: 网络结构 首先我们抽象理解下一个网络结构是怎样的,如下图所示 F1,F2,F3为某种函数 input为输入数据,output为输出数据 X1,X2为为中间的层的输入输出数据 总体来说有以下关系 X1 = F(input) X2 = F1(X1) output = F2(X2) 在训练过程中outpu 阅读全文
posted @ 2017-10-06 00:09 ERKE 阅读(249) 评论(0) 推荐(0) 编辑
摘要: 图示全连接层 如上图所示,该全链接层输入n * 4,输出为n * 2,n为batch 该层有两个参数W和B,W为系数,B为偏置项 该层的函数为F(x) = W*x + B,则W为4 * 2的矩阵,B 为 1 * 2 的矩阵 从公式理解全连接层 假设第N层为全连接层,输入为Xn,输出为Xn+1,其他与 阅读全文
posted @ 2017-10-06 00:01 ERKE 阅读(754) 评论(0) 推荐(0) 编辑
摘要: 通俗易懂理解卷积 图示理解神经网络的卷积 input: 3 * 5 * 5 (c * h * w) pading: 1 步长: 2 卷积核: 2 * 3 * 3 * 3 ( n * c * k * k ) output: 2 * 3 * 3 ( c * h * w ) input: 3 * 5 * 阅读全文
posted @ 2017-10-05 23:58 ERKE 阅读(516) 评论(0) 推荐(0) 编辑