摘要: 1. Gradient boosting(GB) Gradient boosting的思想是迭代生多个(M个)弱的模型,然后将每个弱模型的预测结果相加,后面的模型Fm+1(x)基于前面学习模型的Fm(x)的效果生成的,关系如下: 实际中往往是基于loss Function 在函数空间的的负梯度学习, 阅读全文
posted @ 2019-03-25 16:19 cup_leo 阅读(6076) 评论(0) 推荐(0)
摘要: https://www.cnblogs.com/ZhangRuoXu/p/6370107.html https://blog.csdn.net/tianguiyuyu/article/details/80689213 阅读全文
posted @ 2019-03-04 20:53 cup_leo 阅读(429) 评论(0) 推荐(0)
摘要: 首先,操作之前一定要看清分支!! 其次,提交代码之前一定要先更新代码!! git branch 查看当前分支 git pull 更新代码到本地 提交代码: 1、在本地修改相应文件(或者文件新旧替换) 2、git add **/**/文件名 (文件修改路径) (注意路径要写对) 3、git statu 阅读全文
posted @ 2019-02-22 08:35 cup_leo 阅读(4077) 评论(0) 推荐(0)
摘要: http://www.zhuzongkui.top/2018/08/10/competition-summary/ https://blog.csdn.net/qq_27009517/article/details/86570537 阅读全文
posted @ 2019-02-21 21:36 cup_leo 阅读(174) 评论(0) 推荐(0)
摘要: TextRCNN 文本分类 阅读笔记 论文:recurrent convolutional neural networks for text classification 代码(tensorflow):https://github.com/roomylee/rcnn-text-classificat 阅读全文
posted @ 2019-01-29 17:47 cup_leo 阅读(1631) 评论(0) 推荐(0)
摘要: 1、计算两个句子相似度,句子表征(工业界效果较好) 参考:https://www.zhihu.com/question/29978268/answer/55338644?utm_source=wechat_session&utm_medium=social&utm_oi=79530219802319 阅读全文
posted @ 2019-01-16 10:19 cup_leo 阅读(1119) 评论(0) 推荐(1)
摘要: Step1:建一个hook Step2:加到estimator.train里 阅读全文
posted @ 2019-01-15 16:59 cup_leo 阅读(1368) 评论(0) 推荐(0)
摘要: Bert系列(一)——demo运行 Bert系列(二)——模型主体源码解读 Bert系列(三)——源码解读之Pre-trainBert系列(四)——源码解读之Fine-tune 转载自: https://www.jianshu.com/p/3d0bb34c488a [NLP自然语言处理]谷歌BERT 阅读全文
posted @ 2019-01-15 15:19 cup_leo 阅读(1447) 评论(0) 推荐(0)
摘要: BERT:用于语义理解的深度双向预训练转换器(Transformer) 鉴于最近BERT在人工智能领域特别火,但相关中文资料却很少,因此将BERT论文理论部分(1-3节)翻译成中文以方便大家后续研究。 · 摘要 本文主要介绍一个名为BERT的模型。与现有语言模型不同的是,BERT旨在通过调节所有层中 阅读全文
posted @ 2019-01-15 06:48 cup_leo 阅读(977) 评论(0) 推荐(0)
摘要: 1 文本分类 文本分类是自然语言处理领域最活跃的研究方向之一,目前文本分类在工业界的应用场景非常普遍,从新闻的分类、商品评论信息的情感分类到微博信息打标签辅助推荐系统,了解文本分类技术是NLP初学者比较好的切入点,较简单且应用场景高频。 文本分类 2 数据准备 数据决定了模型最终的高度,不断优化的模 阅读全文
posted @ 2019-01-14 20:00 cup_leo 阅读(4413) 评论(0) 推荐(0)