上一页 1 ··· 41 42 43 44 45 46 47 48 49 ··· 236 下一页
摘要: https://www.zhihu.com/question/20905103 淘宝的评论归纳是如何做到的? 阅读全文
posted @ 2018-12-03 19:55 blcblc 阅读(144) 评论(0) 推荐(0)
摘要: 之前是报这样的错: OpKernel ('op: "BestSplits" device_type: "CPU"') for unknown op: BestSplits 参考这篇文章: http://www.voidcn.com/article/p-njzrxuoi-brk.html 阅读全文
posted @ 2018-12-03 19:44 blcblc 阅读(432) 评论(0) 推荐(0)
摘要: 这篇文章讲的比较好: https://blog.csdn.net/evaljy/article/details/70209957 用这篇文章的内容,能够安装成功 阅读全文
posted @ 2018-12-03 19:39 blcblc 阅读(199) 评论(0) 推荐(0)
摘要: 参考这篇文章: https://www.cnblogs.com/yjd_hycf_space/p/7729796.html 阅读全文
posted @ 2018-12-03 17:17 blcblc 阅读(353) 评论(0) 推荐(0)
摘要: 参考这篇文章: https://blog.csdn.net/mijiaoxiaosan/article/details/73251443 看了下: 最核心的如下:其最重要的创新应该就是Self-Attention的使用级联的多头attention架构。 两点:multi-head attention 阅读全文
posted @ 2018-12-02 23:48 blcblc 阅读(545) 评论(0) 推荐(0)
摘要: 这篇文章看起来很不错: https://blog.csdn.net/qq_39521554/article/details/83062188 仔细看看。 也可以看这个github,一样的文章: https://github.com/Y1ran/NLP-BERT--ChineseVersion 阅读全文
posted @ 2018-12-02 17:07 blcblc 阅读(1103) 评论(0) 推荐(0)
摘要: 参考这篇文章: 小数据福音!BERT在极小数据下带来显著提升的开源实现 https://mp.weixin.qq.com/s?__biz=MzIwMTc4ODE0Mw==&mid=2247493161&idx=1&sn=58ddcd071602c42dda93275289311bb3&chksm=9 阅读全文
posted @ 2018-11-27 12:35 blcblc 阅读(3038) 评论(0) 推荐(0)
摘要: 机器之心上面微软亚研的这篇文章真好: https://baijiahao.baidu.com/s?id=1618179669909135692&wfr=spider&for=pc 其中最后做的总结也非常经典,共赏: 未来展望:理想的 NLP 框架和发展前景 我们认为,未来理想状态下的 NLP 系统架 阅读全文
posted @ 2018-11-27 12:07 blcblc 阅读(715) 评论(0) 推荐(0)
摘要: 课程地址如下: https://mooc.study.163.com/smartSpec/detail/1001319001.htm 有一个非常好的笔记: https://github.com/fengdu78/deeplearning_ai_books 还有个英文版的: https://githu 阅读全文
posted @ 2018-11-20 00:46 blcblc 阅读(437) 评论(0) 推荐(0)
摘要: 这个github感觉很不错,把一些比较新的实现都尝试了: https://github.com/brightmart/text_classification fastText TextCNN TextRNN RCNN Hierarchical Attention Network seq2seq wi 阅读全文
posted @ 2018-11-13 00:11 blcblc 阅读(1580) 评论(0) 推荐(0)
上一页 1 ··· 41 42 43 44 45 46 47 48 49 ··· 236 下一页