上一页 1 ··· 134 135 136 137 138 139 140 141 142 ··· 233 下一页
摘要: 截图如下,100%接住: 游戏截图: 阅读全文
posted @ 2017-03-29 21:10 blcblc 阅读(191) 评论(0) 推荐(0)
该文被密码保护。 阅读全文
posted @ 2017-03-29 21:09 blcblc 阅读(3) 评论(0) 推荐(0)
该文被密码保护。 阅读全文
posted @ 2017-03-29 15:13 blcblc 阅读(5) 评论(0) 推荐(0)
该文被密码保护。 阅读全文
posted @ 2017-03-29 15:01 blcblc 阅读(8) 评论(0) 推荐(0)
该文被密码保护。 阅读全文
posted @ 2017-03-29 14:36 blcblc 阅读(1) 评论(0) 推荐(0)
该文被密码保护。 阅读全文
posted @ 2017-03-28 16:31 blcblc 阅读(2) 评论(0) 推荐(0)
该文被密码保护。 阅读全文
posted @ 2017-03-28 00:02 blcblc 阅读(2) 评论(0) 推荐(0)
摘要: Bag-of-Words (BoW) 模型是NLP和IR领域中的一个基本假设。在这个模型中,一个文档(document)被表示为一组单词(word/term)的无序组合,而忽略了语法或者词序的部分。BOW在传统NLP领域取得了巨大的成功,在计算机视觉领域(Computer Vision)也开始崭露头 阅读全文
posted @ 2017-03-27 23:56 blcblc 阅读(217) 评论(0) 推荐(0)
该文被密码保护。 阅读全文
posted @ 2017-03-27 23:29 blcblc 阅读(1) 评论(0) 推荐(0)
摘要: 其实就是计算概率的时候,对于分子+1,避免出现概率为0。这样乘起来的时候,不至于因为某个量x,在观察样本库(训练集)中没有出现过,会导致整个实例的概率结果是0。在文本分类的问题中,当一个词语没有在训练样本中出现,该词语调概率为0,使用连乘计算文本出现概率时也为0。这是不合理的,不能因为一个事件没有观 阅读全文
posted @ 2017-03-27 22:33 blcblc 阅读(4585) 评论(0) 推荐(0)
上一页 1 ··· 134 135 136 137 138 139 140 141 142 ··· 233 下一页