概率软逻辑(PSL,Probabilistic soft logic)通用(可处理中文)版本

一、简介

概率软逻辑(PSL,Probabilistic soft logic)是用于开发概率模型的机器学习框架,由加州大学圣克鲁兹分校和马里兰大学的统计关系学习小组LINQS开发。目前其复杂的环境构建方式和Groovy语言表达给像作者一样的初学者带来了不小的困难,而且诸多的依赖项经常使原本已经构建好的模型小错误频繁。

经过努力,作者将其构建成单个jar包,并且加入编码机制使其可以支持各种语言的数据。主要贡献有三:

1.将PSL原本复杂的依赖打包为单个jar包,加入依赖即可开始使用。

2. 将不够熟悉的Groovy语言模型构建方式全部转化为.java支持,只需一个.java文件便可进行模型构建。

3.加入编码机制,使PSL可以轻松处理除英文以外语言的数据。

链接:https://pan.baidu.com/s/1PybpNoPpvk4jmSMw7Rm_7A 密码:g1cx
链接文件夹里有三个文件:
PSL_swust1.0.jar 修改过的PSL模型
SimpleAcquaintances.zip PSL官方例子的改编版本(不包含权重学习和函数)
Entity_resolution.zip PSL官方例子的改编版本(包含权重学习和函数)

使用时请将PSL_swust1.0.jar加入java项目依赖即可,导入示例项目也需要将项目lib文件夹下PSL_swust.jar加入依赖。

二、举例说明

以SimpleAcquaintances内SimpleAcquaintances.java为例进行阐述。

1.配置项

 1 /*
 2          * ======【配置项】======
 3          */
 4         Tool tool = new Tool();
 5         DataStore datastore;
 6         HashMap<String, Partition> partitions = new HashMap<String, Partition>();
 7         String path = tool.getPath(new SimpleAcquaintances().getClass())
 8                 + "/../data/";// SimpleAcquaintances改为当前类名
 9         String[] paths = tool.getFiles(path);
10         PSLMODEL psl = new PSLMODEL(paths, "H2");// 在安装了postgresql数据库时可H2改为postgresql
11         datastore = psl.getDatastore();
12         psl.transcoding = false;//是否给数据编码(此值只决定数据是否编码,谓词默认都要编码)

 

• 使用时SimpleAcquaintances需要改为当前类名(目的是为了通过Tool类 getPath() 函数获取获取当前项目文件夹)。
• 当安装配置了postgreSQL时可将 “H2” 改为 “postgresql” 来使用postgreSQL数据库(H2为模型自带数据库,运行于内存)。
• transcoding 项设置为 true 时候模型会给数据编码,此时模型可以支持处理各种语言的数据(另外,设置true编码后设置谓词属性为UniqueIntID,可提升模型计算效率)。
• 此修改后的版本依然保留了PSL自带的相似度计算函数和自定义函数功能,但是编码后的数据无法通过PSL自带相似度计算函数计算相似度 (因为,编码后的数据不再是原来的字符串)。

2.定义分区

 1        // 权重学习分区
 2         // partitions.put("learn_obs", datastore.getPartition("learn_obs"));
 3         // partitions.put("learn_target",
 4         // datastore.getPartition("learn_target"));
 5         // partitions.put("learn_truth", datastore.getPartition("learn_truth"));
 6         // 实验分区
 7         datastore = psl.getDatastore();
 8         partitions.put("obs", datastore.getPartition("obs"));
 9         partitions.put("target", datastore.getPartition("target"));
10         partitions.put("truth", datastore.getPartition("truth"));
11         psl.setPartitions(partitions);

 

• 当需要权重学习时(有训练数据时),需要定义权重学习分区。
• “obs” 代表已知数据分区;
• “target” 代表要推理的目标数据储存分区(当要使用LazyInference推理时可以不往里面加载数据),
• “truth” 为真实数据分区。

3.谓词(函数)定义

 1 HashMap<String, ConstantType[]> p = new HashMap<String, ConstantType[]>();
 2         HashMap<String, ExternalFunction> f = new HashMap<String, ExternalFunction>();
 3         // 添加谓词
 4         p.put("Lived", new ConstantType[] { ConstantType.UniqueStringID,ConstantType.UniqueStringID });
 5         p.put("Likes", new ConstantType[] { ConstantType.UniqueStringID,ConstantType.UniqueStringID });
 6         p.put("Knows", new ConstantType[] { ConstantType.UniqueStringID,ConstantType.UniqueStringID });
 7         // 添加函数
 8 //      f.put("SameInitials", new SameInitials());
 9 //      f.put("SameNumTokens", new SameNumTokens());
10         psl.definePredicates(p, f);// 谓词、函数输入模型

 

• 谓词定义只需替换修改即可,可随意增减。
• 谓词常用属性有UniqueStringID、UniqueIntID、String等。
• 函数可以定义PSL自带相似度函数(transcoding 为false时),也可定义继承自ExternalFunction的自定义函数。

4.规则定义

 1 String[] rules = {
 2 
 3                 "20.0: ( LIVED(P1, L) & (P1 != P2) & LIVED(P2, L) ) >> KNOWS(P1, P2) ^2",
 4                 "5.0: ( (L1 != L2) & (P1 != P2) & LIVED(P2, L2) & LIVED(P1, L1) ) >> ~( KNOWS(P1, P2) ) ^2",
 5                 "10.0: ( LIKES(P2, L) & (P1 != P2) & LIKES(P1, L) ) >> KNOWS(P1, P2) ^2",
 6                 "5.0: ( KNOWS(P1, P2) & KNOWS(P2, P3) & (P1 != P3) ) >> KNOWS(P1, P3) ^2",
 7                 "1.0 * KNOWS(P1, P2) + -1.0 * KNOWS(P2, P1) = 0.0 .",
 8                 "5.0: ~( KNOWS(P1, P2) ) ^2"
 9 
10         };
11         psl.defineRules(rules);// 规则输入模型

 

• 规则格式: 权重: 规则体 >> 规则头
• ^2代表平方优化,
• 定义自己项目的规则只需按照例子里的规则格式增减规则即可。
• 提示:算术规则的定义只能写成 "apredicateX(A,B)+bpredicte(A,B)= 0.0 ." 的形式,如PSL可接受的规则:“Knows(P1, P2) = Knows(P2, P1) .” 在作者修改版本中请写成 "1.0 * KNOWS(P1, P2) + -1.0 * KNOWS(P2, P1) = 0.0 ." ,否则会报错,后期会进行优化。

5.导入数据

 1 /*
 2          * ======【导入数据】======
 3          * 其中"1-2"表示对数据的一二列进行转码
 4          * 只有在transcoding = true时作用,表示只对1,2两列进行转码
 5          */
 6         psl.loadData("Lived", path + "Lived_obs.txt", "obs", "1-2");
 7         psl.loadDataTruth("Likes", path + "likes_obs.txt", "obs", "1-2");
 8         psl.loadData("Knows", path + "knows_obs.txt", "obs", "1-2");
 9         psl.loadData("Knows", path + "knows_targets.txt", "target","1-2");
10         psl.loadDataTruth("Knows", path + "knows_truth.txt", "truth","1-2");
11 //      ArrayList<String[]> likepe = tool.fileToArrayList(path + "likes_obs.txt", "1-2-3");
12 //      psl.insertDataTruth("Likes", likepe, "obs");
13 //      psl.insertData("Likes", likepe, "obs");

 

• 此版本提供了loadData,loadDataTruth,insertData,insertDataTruth四种方法载入数据,格式为:loadData("谓词",谓词对应数据文件路径, "要导入的分区", "要取的列(不包含概率值那一列)")
• loadData,loadDataTruth中的"1-2"表示对数据的一二列进行转码, 只有在transcoding = true时作用,表示对数据文件里的1,2两列进行转码,多列增加即可,以“-”分开。
• loadData,loadDataTruth区别在于:用loadDataTruth加载数据,默认最后一列为概率值;
• insertData,insertDataTruth适用于一个数据文件存储了多个谓词对应数据的情况,使用前需要先将文件转化为List数据,此文版本里包含的工具类Tool提供了 fileToArrayList("文件路径","要提取的列数")函数辅助完成转化工作。
• ""1-2-3""表示要取出1、2、3作为谓词的数据,insertDataTruth取出的每个数据 "1-2-...-n"的第n项默认是概率值。

6.权重学习

//  psl.learnWeights("learn_target", "Lived-Likes", "learn_obs", "learn_truth","MaxLikelihoodMPE");

 

• 格式:learnWeights("训练数据目标分区", "封闭谓词,即:作为已知数据,推理过程不会再新产生的原子", "训练数据已知数据分区", "真实数据存放分区","权重学习方法")
• 当有训练数据时候可进行权重学习优化规则权重。
• 此版本保留了五种PSL权重优化方法:
"LazyMaxLikelihoodMPE",
"MaxLikelihoodMPE",
"MaxPiecewisePseudoLikelihood",
"MaxPseudoLikelihood",
"SimplexSampler"
替换即可使用。

7.打印输出模型

psl.printModel();

 

• 可用于查看已经定义的模型及编码后的模型(规则)。

8.运行推理

1 //      psl.runLazyInference("已知数据分区", "目标分区(存放结果)");
2 //      psl.runLazyInference("obs", "target");
3 //      psl.runInference(""已知数据分区"","封闭谓词1-封闭谓词2" , "目标分区(包含定义的目标原子)");
4         psl.runInference("obs","Lived-Likes" , "target");

 

• 此版本有两种推理方式:LazyMPEInference,MPEInference。
• LazympeInference格式:runLazyInference("已知数据分区", "目标分区 用于存放结果")
• MPEInference格式:runInference(""已知数据分区"","封闭谓词1-封闭谓词2" , "目标分区 包含了输入的目标原子")

9.数据输出

psl.writeOutput("target", "Knows", path + "/result/knows_inffer.txt");

 

• 输出函数使用格式:writeOutput("目标分区", "要输出的数据对应谓词1-要输出的数据对应谓词2", 输出路径)

10.评估实验结果

psl.evalResults("target", "truth", "Knows", path
                + "/result/evalResults.txt");

 

• 评估函数使用格式:evalResults("目标分区", "真实数据分区", "目标谓词1-目标谓词2", 评估结果输出路径)
• 值得一提的是,"目标谓词1-目标谓词2" 项需要填写所有真实数据分区所包含数据对应的谓词。

11.关闭模型

psl.closeModel();

 

• 推理完成,请关闭模型。

posted @ 2018-08-14 23:15  行者的灵感  阅读(1159)  评论(0编辑  收藏  举报