摘要: http://zangbo.me/2017/06/06/Word2Vec_Negative-Sample/ 阅读全文
posted @ 2017-12-26 16:20 Qniguoym 阅读(187) 评论(0) 推荐(0)
摘要: http://qiancy.com/2016/08/17/word2vec-hierarchical-softmax/ 阅读全文
posted @ 2017-12-26 16:19 Qniguoym 阅读(1246) 评论(0) 推荐(0)
摘要: http://www.flickering.cn/nlp/2015/02/%E6%88%91%E4%BB%AC%E6%98%AF%E8%BF%99%E6%A0%B7%E7%90%86%E8%A7%A3%E8%AF%AD%E8%A8%80%E7%9A%84-2%E7%BB%9F%E8%AE%A1%E8 阅读全文
posted @ 2017-12-26 15:39 Qniguoym 阅读(136) 评论(0) 推荐(0)
摘要: 前言 这里讨论的优化问题指的是,给定目标函数f(x),我们需要找到一组参数x,使得f(x)的值最小。 本文以下内容假设读者已经了解机器学习基本知识,和梯度下降的原理。 Batch gradient descent 梯度更新规则: BGD 采用整个训练集的数据来计算 cost function 对参数 阅读全文
posted @ 2017-12-18 16:13 Qniguoym 阅读(10111) 评论(0) 推荐(0)
摘要: 数据序列化 TensorBoard 通过读取 TensorFlow 的事件文件来运行。TensorFlow 的事件文件包括了你会在 TensorFlow 运行中涉及到的主要数据。下面是 TensorBoard 中汇总数据(Summary data)的大体生命周期。 首先,创建你想汇总数据的 Tens 阅读全文
posted @ 2017-12-17 16:42 Qniguoym 阅读(795) 评论(0) 推荐(0)
摘要: 《Batch Normalization: Accelerating Deep Network Training by Reducing Internal Covariate Shift》 随机梯度是训练深度网络的主流方法。尽管随机梯度下降法对于训练深度网络简单高效,但是它有个毛病,就是需要我们人为 阅读全文
posted @ 2017-12-16 10:11 Qniguoym 阅读(235) 评论(0) 推荐(0)
摘要: 假设你有许多小明同学一天内不同时段的照片,从小明提裤子起床到脱裤子睡觉各个时间段都有(小明是照片控!)。现在的任务是对这些照片进行分类。比如有的照片是吃饭,那就给它打上吃饭的标签;有的照片是跑步时拍的,那就打上跑步的标签;有的照片是开会时拍的,那就打上开会的标签。问题来了,你准备怎么干? 一个简单直 阅读全文
posted @ 2017-12-07 15:08 Qniguoym 阅读(325) 评论(0) 推荐(0)
摘要: 实体识别和关系抽取是例如构建知识图谱等上层自然语言处理应用的基础。实体识别可以简单理解为一个序列标注问题:给定一个句子,为句子序列中的每一个字做标注。因为同是序列标注问题,除去实体识别之外,相同的技术也可以去解决诸如分词、词性标注等不同的自然语言处理问题。 说到序列标注直觉是会想到RNN的结构。现在 阅读全文
posted @ 2017-12-05 18:07 Qniguoym 阅读(4411) 评论(0) 推荐(0)
摘要: tensorflow_model_server --port=6000 --model_name=text_lstm --model_base_path=/home/guoyingmei/test/text_lstm/model/text_lstm 阅读全文
posted @ 2017-11-30 16:31 Qniguoym 阅读(1660) 评论(0) 推荐(0)
摘要: 在signature_def_map中定义了两个,一个是自己设计的别名,一个是默认的。 定义一个解析类。 model_name 是启动服务时明确的model_name signature_name是在signature_def_map中自己设计的别名对应的输入输出之类的。 阅读全文
posted @ 2017-11-29 16:14 Qniguoym 阅读(487) 评论(0) 推荐(0)