正文内容加载中...
posted @ 2015-05-25 22:55 仙守 阅读(1334) 评论(0) 编辑
摘要: 0. 引言 通过源码方式安装,并进行一定程度的解读,有助于理解tensorflow源码,本文主要基于tensorflow v1.8源码,并借鉴于 "如何阅读TensorFlow源码" . 首先,自然是需要去 "bazel" 官网了解下必备知识,如(1) "什么是bazel" ; (2) "bazel阅读全文
posted @ 2018-08-06 10:45 仙守 阅读(367) 评论(0) 编辑
摘要: 接 "Tensorflow hub[例子解析1]" . 3 基于文本词向量的例子 3.1 创建Module 可以从 "Tensorflow hub[例子解析1]" .中看出,hub相对之前减少了更多的工作量。 首先,假设有词向量文本文件 该例子就是通过读取该文件去生成TF Hub Module,可以阅读全文
posted @ 2018-06-12 13:55 仙守 阅读(180) 评论(0) 编辑
摘要: 0. 引言 Tensorflow于1.7之后推出了tensorflow hub,其是一个适合于迁移学习的部分,主要通过将tensorflow的训练好的模型进行模块划分,并可以再次加以利用。不过介于推出不久,目前只有图像的分类和文本的分类以及少量其他模型 这里先通过几个简单的例子,来展示该hub的使用阅读全文
posted @ 2018-06-12 10:09 仙守 阅读(730) 评论(0) 编辑
摘要: 1. tensorflow工作流程 如官网所示: 根据整体架构或者代码功能可以分为: 图1.1 tensorflow架构 如图所示,一层C的api接口将底层的核运行时部分与顶层的多语言接口分离开。 而根据整个的工作流程,又可以分为: 图1.2 不同系统组件之间的交互 而图1.2也是tensorflo阅读全文
posted @ 2018-06-04 11:15 仙守 阅读(397) 评论(0) 编辑
摘要: 1 Tensorflow源码目录结构 基于2018年5月28日github的tensorflow源码,即1.8版本 第一层 : tensorflow: 核心代码目录。 third_party:第三方库,包括:eigen3,fft2d,hadoop,mkl,probuf ,kafka,mpi,tens阅读全文
posted @ 2018-05-29 19:39 仙守 阅读(390) 评论(0) 编辑
摘要: 0. 引言 参考文献: 1. " arxiv ] .[attention search" 2. " Survey ] Wang F, Tax D M J. [Survey on the attention based RNN model and its applications in compute阅读全文
posted @ 2018-03-22 11:31 仙守 阅读(117) 评论(0) 编辑
摘要: 0. 背景 评估(或者说验证)聚类结果就如同聚类本身一样困难。通常的方法有 内部评估 和 外部评估 这两种: 内部评估的方法:通过一个单一的量化得分来评估算法好坏;该类型的方法 外部评估的方法:通过将聚类结果与已经有“ground truth”分类进行对比。要么通过人类进行手动评估,要么通过一些指标阅读全文
posted @ 2018-03-16 17:27 仙守 阅读(36) 评论(0) 编辑
摘要: 0. 背景 谱聚类在2007年前后十分流行,因为它可以快速的通过标准的线性代数库来实现,且十分优于传统的聚类算法,如k mean等。 至于在任何介绍谱聚类的算法原理上,随便翻开一个博客,都会有较为详细的介绍,如 "这里" 。当然这些都来自《A Tutorial on Spectral Cluster阅读全文
posted @ 2018-03-16 09:42 仙守 阅读(157) 评论(0) 编辑
摘要: 0. 背景 Junbo Zhao等人提出的“基于能量的GAN”网络,其将判别器视为一个能量函数而不需要明显的概率解释,该函数可以是一个可训练的损失函数。能量函数是将靠近真实数据流形的区域视为低能量区域,而远离的视为高能量区域。和“概率GAN”相似,训练中,生成器会尽可能生成最小能量时候的伪造样本,而阅读全文
posted @ 2018-03-01 23:29 仙守 阅读(163) 评论(0) 编辑
摘要: 0 背景 在这之前大家在训练GAN的时候,使用的loss函数都是sigmoid_cross_entropy_loss函数,然而xudon mao等人发现当使用伪造样本去更新生成器(且此时伪造样本也被判别器判为对的时候)会导致梯度消失的问题。虽然此时伪造样本仍然离真实样本分布距离还挺远。也就是之前的损阅读全文
posted @ 2018-02-24 22:59 仙守 阅读(67) 评论(0) 编辑