/*自定义导航栏*/

【NLP】Python实例:基于文本相似度对申报项目进行查重设计

Python实例:申报项目查重系统设计与实现

作者:白宁超

2017年5月18日17:51:37

摘要:关于查重系统很多人并不陌生,无论本科还是硕博毕业都不可避免涉及论文查重问题,这也对学术不正之风起到一定纠正作用。单位主要针对科技项目申报审核,传统的方式人力物力比较大,且伴随季度性的繁重工作,效率不高。基于此,单位觉得开发一款可以达到实用的智能查重系统。遍及网络文献,终未得到有价值的参考资料,这个也是自然。首先类似知网,paperpass这样的商业公司其毕业申报专利并进行保密,其他科研单位因发展需要也不会开源。笔者就结合NLP相关知识进行设计一款自主的查重系统,首先采用自然语言处理方法主要提出两个模型:科技项目查重的训练模型和科技项目查重的测试模型。其中训练模型主要对数据的清洗预处理及其规约化处理,测试系统也是主查重系统,对其查重原理和性能进行设计实现。最后将其封装成包,PHP或者Java等语言调用即可。(本文原创编著,转载注明出处:Python实例:申报项目查重系统设计与实现

1 开发环境部署


硬件环境:普通台式机或者笔记本一台,可以正常连网,配置不作特别要求

软件环境:win7以上系统,本机采用WIN10 64位系统

开发环境:Sublime + Python3.5(Anaconda)

分词工具:先行的分词工具都可以,本文采用结巴分词

PHP调用环境:WampServer(php开发集成环境)

2 查重系统需要分析


背景:科技相关工作者通过计划项目管理平台进行项目申报,这个过程中存在涉嫌造假,修改本人以往项目等一系列违规操作。为了遏制这种现象,开发一款智能的项目查重系统必然不能或缺。

需求:低版本主要控制申报项目的标题和简介查重问题,实现对相似度较高的项目进行查重。用户提交申报项目后,自动审查是否存在违规行为。

解决:1 从服务器中导出今年真实的申报项目作为训练集(目前采用真实项目2400多个),通过对训练数据集的一系列数据清洗,然后进行语料库构建工作。2 采用文本相似度原理对测试文本进行建模,最后通过文本相似算法的实现,完成查重系统。3 PHP调用python查重文件,实现操作。

问题:1 真实语料规模有所限制,伴随语料扩大效果更好。2 文本相似度多种算法比较,包括:欧几里德距离、余弦定理、皮尔逊相关度、曼哈顿距离、Jaccard系数、gensim相似度等,改进版采用合适的相似度算法。3 对同义词、近义词、稀有词、核心词等权重问题的改进 4 后续改进针对整篇文章和主题识别

3 查重系统设计流程


本查重系统设计分为两大步骤:训练模型和测试模型。

训练模型:

1 首先从数据库中导出原始申报项目核心字段数据,其中subject代表项目课题名称,summary代表课题项目简介。

2 通过算法完成语料标记工作,具体算法原理和实现参见下文,效果如下图:

3 对数据进行预处理,其中包括正则匹配、文本分词、停用词处理、字符串操作、规约化数据等,处理后结果如下:

4 采用余弦相似度进行相似算法处理,最后识别结果如下:

5 PHP调用Python算法的运行结果:

当重复率大于阈值时:

 当重复率小于阈值时:

 

4 科技项目查重训练模型


1 针对路径进行配置,其中源语料为datas.txt,标记处理后保存到同目录下的flagdatas.txt中

2 对原始语料进行标记和简单清洗,之所以采用标记,一方面便于序列化展示,另一方面区分项目名称和简介。

3 保存标记后的语料并统计处理结果

4 对标记数据进行分词处理。本文采用的结巴分词,分词后可以采用两种情况的处理,其一是不带词性标记的处理方式,直接将分词结果与停用词词典进行比对,去除停用词。其二是采用带有词性标注的分词结果,我们然后采用词典和去除词性的方式进行预处理,其中诸如虚词,助词等可以根据业务需求去除。而相对于名词、动词等主要词性,可以通过增加权重的方式进行处理。最终保村分词结果。作为训练语料库即对比语料库。

具体预处理源码如下:

    # 1 针对语料路径进行配置
    path="../CheckRepeat/database/OrigCorpus/datas.txt" # 训练语料库
    flagpath="../CheckRepeat/database/OrigCorpus/flagdatas.txt" # 语料标记

    # 2 对原始语料进行标记和简单清洗
    listset="" # 标记后的语料集合
    i,j=1,1
    with open(path,'r',encoding='utf-8') as f:
        for rline in f.readlines():
            line = rline.strip().replace(" ","")
            if "summary" in line :
                listset +="\n"+str(i)+"_"+line
                i+=1 # 简介打标签
            elif "subject" not in line:
                listset +=line
            elif "subject" in line:
                listset +="\n"+str(j)+"_"+line
                j+=1 # 项目题目打标签

    # 3 保存标记后语料并统计标记结果
    with open(flagpath,'w',encoding='utf-8') as f1:
        f1.write(listset.strip())
    print("="*70)
    print("项目共计标题:"+str(len(listset.split("subject"))-1))
    print("项目共计简介:"+str(len(listset.split("summary"))-1))
    print("-"*70)

    # 4 对标记数据进行分词处理
    cutpath="../CheckRepeat/database/OrigCorpus/cutdatas.txt" # 保存分词后的结果
    cutword(flagpath,cutpath)

 其执行2405条数据的性能如下:具体分析发现启动分词工具耗时1.2秒左右,其余耗时量主要是停用词比对时,两个矩阵计算造成的,这个问题可以通过算法改进,缩短耗时。

5 科技项目查重实现(测试)系统


1 接收项目文件(项目名称/项目简介)进行预处理操作,其实这个过程跟模型训练时的预处理算法是一致的。

2 将训练阶段处理后的数据进行处理,分割出项目名称/项目简介,分布存放在两个list中。

3 判断参数是否为空,如果不为空将对应的参数放入验证查重结果。

4 以测试数据和训练的每条数据的词项构建文本向量,通过文本向量的夹角即判断文本相似度,并反馈出结果。本文采用的是python自带的difflib模块进行处理,difflib是python提供的比较序列(string list)差异的模块。实现了三个类:1>SequenceMatcher 任意类型序列的比较 (可以比较字符串)2>Differ 对字符串进行比较3>HtmlDiff 将比较结果输出为html格式.理由是其相对比较成熟,本项目的处理量并不大。倘若处理G级或P级规模的数据,可以考虑使用google的gensim相似度算法,大大提高处理速度,幸运的是该算法也是python自带的一个模块。当然对其原理的理解,建议还是自己实现下。

5 对查重后的结果进行处理,可以保存到本地,也可以直接输出,由于本项目主要提供php调用,切php调用执行py文件之后,对输出结果不能换行处理,所以本项目添加一些html标签和css样式。

查重实现核心源码如下:

def checkfun(namestr):
    subject={} # 记录查重结果,键值对,原句+重复率
    summary={}
    # 1 找到对比库的历史数据
    checkpath ="../CheckRepeat/database/OrigCorpus/cutdatas.txt" # 数据库中对比项目语料库
    with open(checkpath,"r",encoding="utf-8") as f:
        checklist=[line[:] for line in f.readlines()]
    subjectname=[sub for sub in checklist if "subject" in sub] # 项目名称
    summaryname=[summ for summ in checklist if "summary" in summ] # 项目简介

    if "subject" in namestr:
        # 2 进行项目名称验证操作
        for rline in subjectname:
            line = ''.join(str(rline).split(' ')[2:])
            subp = difflib.SequenceMatcher(None,namestr.split('\n')[0].replace('subject',''),line).ratio()
            subject[line]=float('%.4f'%(subp))
    if "summary" in namestr:
        # 3 进行项目简介验证操作
        for rline in summaryname:
            line = ''.join(str(rline).split(' ')[2:])
            sump = difflib.SequenceMatcher(None,namestr.split('\n')[1].replace('summary',''),line).ratio()
            summary[line]=float('%.4f'%(sump))

    # 4 打印检测结果
    outreslut=""
    sort1=sorted(subject.items(),key=lambda e:e[1],reverse=True)   #排序
    outreslut +="项目名称:"+"*"*5+"["+namestr.split('\n')[0].replace('subject','') + "]"+"*"*5+"的查重结果如下:\n\n"
    for item in sort1[:1]:
        if item[1] >= 0.5:
            outreslut += "与项目库中\t[<span style=\"color:red\">"+item[0].replace("\n",'')+"</span>]\t的相似率最高:<span style=\"color:red\">"+str(item[1]) +"</span>\n"
        else:
            outreslut += "<span style=\"color:green\">没有查出重复的项目简介</span>\n"

    sort2=sorted(summary.items(),key=lambda e:e[1],reverse=True)   #排序
    outreslut += "\n\n项目简介:"+"*"*5+"["+namestr.split('\n')[1].replace('summary','') + "]"+"*"*5+"的查重结果如下:\n\n"
    for item in sort2[:1]:
        if item[1] >= 0.5:
            outreslut += "与项目库中\t[<span style=\"color:red\">"+item[0].replace("\n",'')+"</span>]\t的相似率最高:<span style=\"color:red\">"+str(item[1]) +"</span>\n"
        else:
            outreslut += "<span style=\"color:green\">没有查出重复的项目简介</span>\n"

    # 5 写到文件里面
    with open("../CheckRepeat/database/DealCorpus/checkout.txt",'w',encoding='utf-8') as f:
        f.write(outreslut)
    print(outreslut)

 

其运行结果如下:

6 PHP调用Python查重系统


1 php调用主要是$program变量下的语句,原理是:

python.exe的绝对路径,空格,调用py的主文件绝对路径,空格,参数1,空格,参数2

2 py文件通过sys相关参数进行接收,sys.argv[0]是py文本名,所以1-n对应你传入的参数如下:

# subject = sys.argv[1]
# summary = sys.argv[2]

3 exec($program,$result,$N)其执行py程序并返回一条字符串,返回结果保存在$result中。$N代表执行是否成功,成功返回1

4  shell_exec($program) 返回py文件所有语句的输出

5 php与py之间存在乱码问题,可以通过mb_convert_encoding ($output,"UTF-8", "GBK")解决

<?php
    $name=mb_convert_encoding($_POST['projectname'], "GBK","UTF-8");
    $sumb=mb_convert_encoding($_POST['projectsumb'], "GBK","UTF-8");
    $program="D:/Users/Administrator/Anaconda3/python E:/pythonSource/CheckArticle/CheckRepeat/checkIndex.py ".$name." ".$sumb.""; #注意使用绝对路径.$name."".$sumb
    $output = nl2br(shell_exec($program));
    // $program1="D:/Users/Administrator/Anaconda3/python ../CheckRepeat/test.py ".$name." ".$sumb.""; #注意使用绝对路径.$name."".$sumb
    // $result1 = shell_exec($program1);
    echo mb_convert_encoding ($output,"UTF-8", "GBK");
    // if ($output!=null){
    //     print_r(nl2br(file_get_contents('../CheckRepeat/database/DealCorpus/checkout.txt')));
    // }
?>

 

7 参考文献:


[1] TF-IDF与余弦相似性的应用:http://www.ruanyifeng.com/blog/2013/03/tf-idf.html
[2] 海量数据相似度计算之simhash短文本查找:http://www.lanceyan.com/tag/simhash
[3] 用TF特征向量和simhash指纹计算中文文本的相似度:https://github.com/zyymax/text-similarity
[4] gensim文档相似度判断:http://kekefund.com/2016/05/27/gensim-similarity/
[5] python文本相似度计算:http://www.jianshu.com/p/edf666d3995f
[6] 如何计算两个文档的相似度:https://flystarhe.github.io/2016/08/30/document-similarity/
[7] gensim文档相似度判断:http://kekefund.com/2016/05/27/gensim-similarity/

 

 

 

posted @ 2017-05-18 17:53  伏草惟存  阅读(17782)  评论(4编辑  收藏  举报