随笔分类 -  工作总结

记录每天工作的点点滴滴
摘要:最近一段时间比较忙,刚开学,又要忙着发论文,又要忙着做毕设,又要想办法赚点外快,嘿嘿,搞的有点乱,所以我决定捋一捋思绪,对最近一段时间要做的事情规划一下,免得眉毛胡子一把抓,最后什么都没做好。1、 3月18号是UAI的deadline,已经错过了一些会议了,这个再不能错过了,否则整体的进度容易受到影响。所以这个是近期工作的重点,要在最近的一到两周的时间,把论文需要的实验都跑出来,数据整理好,并加以分析。2、 下周助教就要开始了,为了能够更好的完成助教的任务,真正教给学弟学妹一些东西,我要认真的对助教的内容做预习,尽可能考虑周全可能遇到的问题,并对实验的内容加以改进,这个可能比较耗费精力,重要程 阅读全文
posted @ 2011-02-27 21:23 centimeter 阅读(178) 评论(0) 推荐(0)
摘要:今天早上,我带着无限的期待,来到实验室,看昨晚的实验结果。很不错,webkb的all.mln已经学出来了!但是uw-cse的mln迟迟不见踪影。已经20几个小时了,也不知道是算法本身的问题,还是我们运行的有问题。等着吧!在用webkb学出来的all.mln向imdb2345迁移时出现了问题,提示文件打不开。我想原因可能是机器内存资源不足。因为我在查看服务器的资源时,发现uw-cse的结构学习进程耗费非常多的CPU和内存,估计存在着不是特别严重的内存泄露问题,之所以会在这个时候体现出来,是和uw-cse运行的时间长有关(单个进程就占用了1个多G的内存,这是前所未有的)。昨晚已经完成了从webkb 阅读全文
posted @ 2010-12-10 22:36 centimeter 阅读(197) 评论(0) 推荐(0)
摘要:今天的工作效率好低啊,究其原因,主要是目标不是很明确,总是在做些无用功。不过经过和wx的讨论,思路渐渐的明朗起来,目前主要的工作是这样的:1、将UW-CSE的五个数据集归结成一个总的数据集all.db,用这个总的db训练出一个mln;2、同理,将WEBKB的四个数据集归结成all.db,训练出WEBKB的mln;3、利用前两步得到的结果,向imdb数据集做结构迁移。注意,imdb中有五个数据集,需要依次以其中的一个作为测试集,其他的组合起来作为训练集,训练出目标域imdb的mln;4、利用目标域的mln和测试集进行Infer测试,得到每个谓词的出现概率;5、计算每个谓词的CLL和AUC。经过上 阅读全文
posted @ 2010-12-09 22:36 centimeter 阅读(208) 评论(0) 推荐(0)
摘要:按照tamar的操作步骤,在uw-cse和webkb数据集上进行了实验,完成了前两个步骤,即:在只有谓词的空mln的基础上,进行了结构学习,生成了完整的mln,以备后用。但是程序跑的很慢,运行一次要几个小时,目前还没有跑出结果,但愿明天早上能给我个惊喜。12-9日工作安排:进行tamar实验的第三和第四个步骤:从uw-cse和webkb数据集向imdb数据集进行迁移学习,并利用迁移学习出的mln进行推断。注意,推断时要用MC-SAT算法(参数为-ms)。打羽毛球,锻炼身体如果实验跑的快的话,就计算出CLL。 阅读全文
posted @ 2010-12-08 22:19 centimeter 阅读(227) 评论(1) 推荐(0)
摘要:为了便于以后查看,现将12月7日的工作总结如下:  今天完成的主要工作分为两个方面:  实验方面:学习了perl的一些关于文件的语法,写了几个简单的小程序,成功的完成了cora到imdb的迁移及推断。由于推断需要的时间较长,所以只先做了两三个谓词的推断,但是效果很不理想。预期的实验效果应该是这样的:对于原始的db文件中出现过的谓词,在预测的出的结果文件中应该表现出较高的概率,但是经实验发现,所有的基谓词的概率并没有明显的差别。  实验结果分析:这种结果的产生我认为主要有两种可能:一种是由于只跑了两三个谓词,所以结果不具有代表性,个别谓词的推断对整体性能不会造成太大打的影响。另一种可能是采用的推 阅读全文
posted @ 2010-12-08 18:23 centimeter 阅读(216) 评论(0) 推荐(0)