随笔分类 -  数据挖掘

上一页 1 ··· 19 20 21 22 23 24 25 26 27 ··· 30 下一页
该文被密码保护。
posted @ 2017-04-03 00:16 blcblc 阅读(0) 评论(0) 推荐(0)
该文被密码保护。
posted @ 2017-04-02 18:15 blcblc 阅读(2) 评论(0) 推荐(0)
该文被密码保护。
posted @ 2017-04-02 00:57 blcblc 阅读(5) 评论(0) 推荐(0)
该文被密码保护。
posted @ 2017-03-31 16:19 blcblc 阅读(4) 评论(0) 推荐(0)
该文被密码保护。
posted @ 2017-03-31 15:46 blcblc 阅读(2) 评论(0) 推荐(0)
该文被密码保护。
posted @ 2017-03-30 23:05 blcblc 阅读(3) 评论(0) 推荐(0)
该文被密码保护。
posted @ 2017-03-30 21:23 blcblc 阅读(0) 评论(0) 推荐(0)
该文被密码保护。
posted @ 2017-03-30 21:10 blcblc 阅读(0) 评论(0) 推荐(0)
该文被密码保护。
posted @ 2017-03-30 18:42 blcblc 阅读(0) 评论(0) 推荐(0)
摘要:截图如下,100%接住: 游戏截图: 阅读全文
posted @ 2017-03-29 21:10 blcblc 阅读(191) 评论(0) 推荐(0)
该文被密码保护。
posted @ 2017-03-29 21:09 blcblc 阅读(3) 评论(0) 推荐(0)
该文被密码保护。
posted @ 2017-03-29 15:13 blcblc 阅读(5) 评论(0) 推荐(0)
该文被密码保护。
posted @ 2017-03-29 15:01 blcblc 阅读(8) 评论(0) 推荐(0)
该文被密码保护。
posted @ 2017-03-29 14:36 blcblc 阅读(1) 评论(0) 推荐(0)
该文被密码保护。
posted @ 2017-03-28 00:02 blcblc 阅读(2) 评论(0) 推荐(0)
摘要:Bag-of-Words (BoW) 模型是NLP和IR领域中的一个基本假设。在这个模型中,一个文档(document)被表示为一组单词(word/term)的无序组合,而忽略了语法或者词序的部分。BOW在传统NLP领域取得了巨大的成功,在计算机视觉领域(Computer Vision)也开始崭露头 阅读全文
posted @ 2017-03-27 23:56 blcblc 阅读(219) 评论(0) 推荐(0)
该文被密码保护。
posted @ 2017-03-27 23:29 blcblc 阅读(1) 评论(0) 推荐(0)
摘要:其实就是计算概率的时候,对于分子+1,避免出现概率为0。这样乘起来的时候,不至于因为某个量x,在观察样本库(训练集)中没有出现过,会导致整个实例的概率结果是0。在文本分类的问题中,当一个词语没有在训练样本中出现,该词语调概率为0,使用连乘计算文本出现概率时也为0。这是不合理的,不能因为一个事件没有观 阅读全文
posted @ 2017-03-27 22:33 blcblc 阅读(4588) 评论(0) 推荐(0)
该文被密码保护。
posted @ 2017-03-27 18:19 blcblc 阅读(1) 评论(0) 推荐(0)
该文被密码保护。
posted @ 2017-03-27 17:59 blcblc 阅读(1) 评论(0) 推荐(0)

上一页 1 ··· 19 20 21 22 23 24 25 26 27 ··· 30 下一页