上一页 1 ··· 5 6 7 8 9 10 11 12 13 ··· 21 下一页
摘要: 阅读全文
posted @ 2017-07-27 09:11 simple_wxl 阅读(461) 评论(0) 推荐(0) 编辑
摘要: class xgboost.XGBRegressor(max_depth=3, learning_rate=0.1, n_estimators=100, silent=True, objective='reg:linear', booster='gbtree', n_jobs=1, nthread= 阅读全文
posted @ 2017-07-26 12:27 simple_wxl 阅读(755) 评论(0) 推荐(0) 编辑
摘要: 双向LSTM 阅读全文
posted @ 2017-07-25 10:45 simple_wxl 阅读(226) 评论(0) 推荐(0) 编辑
摘要: Note that if we wrap a base cell with dropout and then use it to build a MultiRNNCell, both input dropout and output dropout will be applied between l 阅读全文
posted @ 2017-07-25 09:57 simple_wxl 阅读(582) 评论(0) 推荐(0) 编辑
摘要: 来源于:https://github.com/HanXiaoyang/python-and-numpy-tutorial/blob/master/python-numpy-tutorial.ipynb python与numpy基础 来源于:https://github.com/HanXiaoyang 阅读全文
posted @ 2017-07-23 16:20 simple_wxl 阅读(1137) 评论(0) 推荐(0) 编辑
摘要: 阅读全文
posted @ 2017-07-18 22:30 simple_wxl 阅读(169) 评论(0) 推荐(0) 编辑
摘要: 阅读全文
posted @ 2017-07-17 21:01 simple_wxl 阅读(126) 评论(0) 推荐(0) 编辑
摘要: CRF的进化 https://flystarhe.github.io/2016/07/13/hmm-memm-crf/参考: http://blog.echen.me/2012/01/03/introduction-to-conditional-random-fields/ 说明:因为MEMM只在局 阅读全文
posted @ 2017-07-17 18:39 simple_wxl 阅读(11859) 评论(0) 推荐(1) 编辑
摘要: TM有三个 model.add(LSTM(100, dropout=0.2, recurrent_dropout=0.2)) 第一个dropout是x和hidden之间的dropout,第二个是hidden-hidden之间的dropout 在tensorflow里面有 第三个是层-层之间的drop 阅读全文
posted @ 2017-07-17 14:58 simple_wxl 阅读(9929) 评论(0) 推荐(0) 编辑
摘要: HMM的应用 HMM是生成模型 词性标注:给定一个词的序列(也就是句子),找出最可能的词性序列(标签是词性)。如ansj分词和ICTCLAS分词等。 分词:给定一个字的序列,找出最可能的标签序列(断句符号:[词尾]或[非词尾]构成的序列)。结巴分词目前就是利用BMES标签来分词的,B(开头),M(中 阅读全文
posted @ 2017-07-17 11:14 simple_wxl 阅读(498) 评论(0) 推荐(0) 编辑
上一页 1 ··· 5 6 7 8 9 10 11 12 13 ··· 21 下一页