相似图片搜索原理

【导读】你可以用一张图片,搜索互联网上(或指定图库中)所有与它相似的图片。

根据 Neal Krawetz 博士的解释,原理非常简单易懂。这里的关键技术叫做"感知哈希算法"(Perceptual hash algorithm),它的作用是对每张图片生成一个"指纹"(fingerprint)字符串,然后比较不同图片的指纹。结果越接近,就说明图片越相似。

下面是一个最简单的实现:

第一步,缩小尺寸

将图片缩小到 8x8 的尺寸,总共 64 个像素。这一步的作用是去除图片的细节,只保留结构、明暗等基本信息,摒弃不同尺寸、比例带来的图片差异。

 

第二步,简化色彩

将缩小后的图片,转为 64 级灰度。也就是说,所有像素点总共只有 64 种颜色

第三步,计算平均值

计算所有 64 个像素的灰度平均值

第四步,比较像素的灰度

将每个像素的灰度,与平均值进行比较。大于或等于平均值,记为1;小于平均值,记为0

第五步,计算哈希值

将上一步的比较结果,组合在一起,就构成了一个 64 位的整数,这就是这张图片的指纹。组合的次序并不重要,只要保证所有图片都采用同样次序就行了。

 =  = 8f373714acfcf4d0

得到指纹以后,就可以对比不同的图片,看看 64 位中有多少位是不一样的。在理论上,这等同于计算"汉明距离"Hamming distance)。如果不相同的数据位不超过5,就说明两张图片很相似;如果大于10,就说明这是两张不同的图片。

具体的代码实现,可以参见 Wote 用 python 语言写的 imgHash.py。代码很短,只有53行。使用的时候,第一个参数是基准图片,第二个参数是用来比较的其他图片所在的目录,返回结果是两张图片之间不相同的数据位数量(汉明距离)。

 1 #!/usr/bin/python
 2 
 3 import glob
 4 import os
 5 import sys
 6 
 7 from PIL import Image
 8 
 9 EXTS = 'jpg', 'jpeg', 'JPG', 'JPEG', 'gif', 'GIF', 'png', 'PNG'
10 
11 def avhash(im):
12     if not isinstance(im, Image.Image):
13         im = Image.open(im)
14     im = im.resize((8, 8), Image.ANTIALIAS).convert('L')
15     avg = reduce(lambda x, y: x + y, im.getdata()) / 64.
16     return reduce(lambda x, (y, z): x | (z << y),
17                   enumerate(map(lambda i: 0 if i < avg else 1, im.getdata())),
18                   0)
19 
20 def hamming(h1, h2):
21     h, d = 0, h1 ^ h2
22     while d:
23         h += 1
24         d &= d - 1
25     return h
26 
27 if __name__ == '__main__':
28     if len(sys.argv) <= 1 or len(sys.argv) > 3:
29         print "Usage: %s image.jpg [dir]" % sys.argv[0]
30     else:
31         im, wd = sys.argv[1], '.' if len(sys.argv) < 3 else sys.argv[2]
32         h = avhash(im)
33 
34         os.chdir(wd)
35         images = []
36         for ext in EXTS:
37             images.extend(glob.glob('*.%s' % ext))
38 
39         seq = []
40         prog = int(len(images) > 50 and sys.stdout.isatty())
41         for f in images:
42             seq.append((f, hamming(avhash(f), h)))
43             if prog:
44                 perc = 100. * prog / len(images)
45                 x = int(2 * perc / 5)
46                 print '\rCalculating... [' + '#' * x + ' ' * (40 - x) + ']',
47                 print '%.2f%%' % perc, '(%d/%d)' % (prog, len(images)),
48                 sys.stdout.flush()
49                 prog += 1
50 
51         if prog: print
52         for f, ham in sorted(seq, key=lambda i: i[1]):
53             print "%d\t%s" % (ham, f)
imgHash.py

这种算法的优点是简单快速,不受图片大小缩放的影响,缺点是图片的内容不能变更。如果在图片上加几个文字,它就认不出来了。所以,它的最佳用途是根据缩略图找出原图

实际应用中,往往采用更强大的 pHash 算法和 SIFT 算法,它们能够识别图片的变形。只要变形程度不超过25%,它们就能匹配原图。这些算法虽然更复杂,但是原理与上面的简便算法是一样的,就是先将图片转化成 Hash 字符串,然后再进行比较。

在 isnowfy 的网站看到还有其他两种方法也很简单,这里一并介绍。

一、颜色分布法

每张图片都可以生成 颜色分布的直方图(color histogram)。如果两张图片的直方图很接近,就可以认为它们很相似。

任何一种颜色都是由红绿蓝三原色(RGB)构成的,所以上图共有 4 张直方图(三原色直方图 + 最后合成的直方图)。

如果每种原色都可以取256个值,那么整个颜色空间共有1600 万种颜色(256 的三次方)。针对这1600 万种颜色比较直方图,计算量实在太大了,因此需要采用简化方法。可以将 0~255 分成四个区:0~63 为第 0 区,64~127 为第 1 区,128~191 为第 2 区,192~255 为第 3 区。这意味着红绿蓝分别有 4 个区,总共可以构成 64 种组合(4的3次方)。

任何一种颜色必然属于这 64 种组合中的一种,这样就可以统计每一种组合包含的像素数量。

上图是某张图片的颜色分布表,将表中最后一栏提取出来,组成一个 64 维向量(7414, 230, 0, 0, 8, ..., 109, 0, 0, 3415, 53929)。这个向量就是这张图片的特征值或者叫"指纹"。

于是,寻找相似图片就变成了找出与其最相似的向量。这可以用 皮尔逊相关系数 或者 余弦相似度 算出。

二、内容特征法

除了颜色构成,还可以从比较图片内容的相似性入手。

首先,将原图转成一张较小的灰度图片,假定为 50x50 像素。然后,确定一个阈值,将灰度图片转成黑白图片。

  

如果两张图片很相似,它们的黑白轮廓应该是相近的。于是,问题就变成了,第一步如何确定一个合理的阈值,正确呈现照片中的轮廓?

显然,前景色与背景色反差越大,轮廓就越明显。这意味着,如果我们找到一个值,可以使得前景色和背景色各自的"类内差异最小"(minimizing the intra-class variance),或者"类间差异最大"(maximizing the inter-class variance),那么这个值就是理想的阈值。

1979年,日本学者大津展之证明了,"类内差异最小"与"类间差异最大"是同一件事,即对应同一个阈值。他提出一种简单的算法,可以求出这个阈值,这被称为 "大津法"Otsu's method)。下面就是他的计算方法。

假定一张图片共有 n 个像素,其中灰度值小于阈值的像素为 n1 个,大于等于阈值的像素为 n2 个( n1 + n2 = n )。w1w2 表示这两种像素各自的比重。

  w1 = n1 / n

  w2 = n2 / n

再假定,所有灰度值小于阈值的像素的平均值和方差分别为 μ1 σ1,所有灰度值大于等于阈值的像素的平均值和方差分别为 μ2σ2。于是,可以得到

  类内差异 = w1(σ1的平方) + w2(σ2的平方)

  类间差异 = w1w2(μ1-μ2)^2

可以证明,这两个式子是等价的:得到"类内差异"的最小值,等同于得到"类间差异"的最大值。不过,从计算难度看,后者的计算要容易一些。

下一步用"穷举法",将阈值从灰度的最低值到最高值,依次取一遍,分别代入上面的算式。使得"类内差异最小"或"类间差异最大"的那个值,就是最终的阈值。具体的实例和 Java 算法,请看这里

 1 // Calculate histogram
 2 int ptr = 0;
 3 while (ptr < srcData.length) {
 4    int h = 0xFF & srcData[ptr];
 5    histData[h] ++;
 6    ptr ++;
 7 }
 8 
 9 // Total number of pixels
10 int total = srcData.length;
11 
12 float sum = 0;
13 for (int t=0 ; t<256 ; t++) sum += t * histData[t];
14 
15 float sumB = 0;
16 int wB = 0;
17 int wF = 0;
18 
19 float varMax = 0;
20 threshold = 0;
21 
22 for (int t=0 ; t<256 ; t++) {
23    wB += histData[t];               // Weight Background
24    if (wB == 0) continue;
25 
26    wF = total - wB;                 // Weight Foreground
27    if (wF == 0) break;
28 
29    sumB += (float) (t * histData[t]);
30 
31    float mB = sumB / wB;            // Mean Background
32    float mF = (sum - sumB) / wF;    // Mean Foreground
33 
34    // Calculate Between Class Variance
35    float varBetween = (float)wB * (float)wF * (mB - mF) * (mB - mF);
36 
37    // Check if new maximum found
38    if (varBetween > varMax) {
39       varMax = varBetween;
40       threshold = t;
41    }
42 }
OtsuThresholder.java

有了50x50 像素的黑白缩略图,就等于有了一个50x50 的 0-1 矩阵。矩阵的每个值对应原图的一个像素,0 表示黑色,1 表示白色。这个矩阵就是一张图片的特征矩阵

两个特征矩阵的不同之处越少,就代表两张图片越相似。这可以用"异或运算"实现(即两个值之中只有一个为1,则运算结果为1,否则运算结果为0)。对不同图片的特征矩阵进行"异或运算",结果中的1越少,就是越相似的图片。

 

【参考文献】

http://www.ruanyifeng.com/blog/2011/07/principle_of_similar_image_search.html

http://www.ruanyifeng.com/blog/2013/03/similar_image_search_part_ii.html

posted @ 2015-05-11 10:22  壬子木  阅读(338)  评论(0)    收藏  举报