2021年3月25日

torch.nn.functional.normalize详解

摘要: 来源CSDN torch.nn.functional.normalize torch.nn.functional.normalize(input, p=2, dim=1, eps=1e-12, out=None) 功能:将某一个维度除以那个维度对应的范数(默认是2范数)。 主要讲以下三种情况: 输入 阅读全文

posted @ 2021-03-25 20:28 nlp如此迷人 阅读(5189) 评论(0) 推荐(0)

主题模型综述:短文本、细粒度、加入先验知识、作者写作偏好、主题内涵随时间的变迁、融入词嵌入特性、语言模型加持

摘要: 来源 知乎https://www.zhihu.com/question/34801598/answer/765580727 主题模型当然有用咯,谁用谁知道!这次我来展示下它的7个“变种”(短文本、细粒度、加入先验知识、作者写作偏好、主题内涵随时间的变迁、融入词嵌入特性、语言模型加持): Biterm 阅读全文

posted @ 2021-03-25 16:44 nlp如此迷人 阅读(2405) 评论(1) 推荐(0)

什么是BTM?

摘要: 记录学习BTM 来源知乎等https://zhuanlan.zhihu.com/p/111545954 什么是BTM BTM和LDA一样都是主题模型,就是给你一篇文档,你指定一个主题的个数,这两个模型都会生成每个主题中的关键词,以及一篇新的文档中各个主题的概率有多大。根据论文作者的表述。传统的主题模 阅读全文

posted @ 2021-03-25 16:11 nlp如此迷人 阅读(5084) 评论(1) 推荐(0)

导航