随笔分类 -  006_深度学习

上一页 1 2 3 4 5 6 7 ··· 9 下一页
深度学习
摘要:在 TensorFlow 之中,分布式变量是在多个设备上创建的变量。Mirrored variable 和 SyncOnRead variable 是两个例子。本文就对分布式变量进行分析。 阅读全文
posted @ 2022-04-14 17:44 罗西的思考 阅读(1243) 评论(0) 推荐(0)
摘要:我们接下来介绍TensorFlow分布式Strategy的基础,本文会先看看Strategy的类体系和如何处理数据,下一篇看看如何处理变量。 阅读全文
posted @ 2022-04-12 14:21 罗西的思考 阅读(1621) 评论(1) 推荐(0)
摘要:本文以两篇官方文档为基础来学习TensorFlow如何进行分布式训练,借此进入Strategy世界。 阅读全文
posted @ 2022-04-10 09:50 罗西的思考 阅读(1522) 评论(1) 推荐(1)
摘要:当计算图在设备之间划分之后,跨设备的 PartitionGraph 之间可能存在着数据依赖关系,因此 TF 在它们之间插入 Send/Recv 节点,这样就完成数据交互。而在分布式模式之中,Send/Recv 通过 RpcRemoteRendezvous 完成数据交换,所以我们需要先看看 TF 之中的数据交换机制 Rendezvous。 阅读全文
posted @ 2022-04-06 15:52 罗西的思考 阅读(1236) 评论(1) 推荐(0)
摘要:前文中,Master 在流程之中先后调用了 gRPC 给远端 worker 发送命令,即,GrpcRemoteWorker 一共发了两个请求:RegisterGraphAsync,RunGraphAsync,本文我们就来看看 GrpcWorkerService 如何处理。 阅读全文
posted @ 2022-04-01 16:47 罗西的思考 阅读(733) 评论(0) 推荐(0)
摘要:在具体介绍 TensorFlow 分布式的各种 Strategy 之前,我们首先需要看看分布式的基础:分布式环境。只有把基础打扎实了,才能在以后的分析工作之中最大程度的扫清障碍,事半功倍。本文会从 Client 开始,看看 Master 如何对计算图进行处理。 阅读全文
posted @ 2022-03-29 16:34 罗西的思考 阅读(693) 评论(1) 推荐(2)
摘要:在具体介绍 TensorFlow 分布式的各种 Strategy 之前,我们首先需要看看分布式的基础:分布式环境。只有把基础打扎实了,才能在以后的分析工作之中最大程度的扫清障碍,事半功倍。会话机制是TensorFlow 分布式运行时的核心,我们接下来按照从 Client 到 worker 的流程,把 Session 机制从前到后走一遍。 阅读全文
posted @ 2022-03-28 19:49 罗西的思考 阅读(943) 评论(1) 推荐(0)
摘要:在具体介绍 TensorFlow 分布式的各种 Strategy 之前,我们首先需要看看分布式的基础:分布式环境。只有把基础打扎实了,才能在以后的分析工作之中最大程度的扫清障碍,事半功倍。我们接下来介绍缓存机制。 阅读全文
posted @ 2022-03-23 19:40 罗西的思考 阅读(605) 评论(0) 推荐(0)
摘要:在具体介绍 TensorFlow 分布式的各种 Strategy 之前,我们首先需要看看分布式的基础:分布式环境。只有把基础打扎实了,才能在以后的分析工作之中最大程度的扫清障碍,事半功倍。本篇介绍 Worker(一系列相关概念) 的静态架构。 阅读全文
posted @ 2022-03-21 19:29 罗西的思考 阅读(896) 评论(0) 推荐(0)
摘要:在具体介绍 TensorFlow 分布式的各种 Strategy 之前,我们首先需要看看分布式的基础:分布式环境。只有把基础打扎实了,才能在以后的分析工作之中最大程度的扫清障碍,事半功倍。本文梳理下 Master 的静态逻辑。 阅读全文
posted @ 2022-03-19 14:56 罗西的思考 阅读(1107) 评论(0) 推荐(1)
摘要:在具体介绍 TensorFlow 分布式的各种 Strategy 之前,我们首先需要看看分布式的基础:分布式环境。只有把基础打扎实了,才能在以后的分析工作之中最大程度的扫清障碍,事半功倍。 阅读全文
posted @ 2022-03-16 19:33 罗西的思考 阅读(2472) 评论(0) 推荐(0)
摘要:读论文有一种原则是:本领域最经典的论文,近5年最热的论文,近1年最新的论文。按照这个原则,本文主要介绍一篇Tensorflow 经典论文 [Implementation of Control Flow in TensorFlow]。 阅读全文
posted @ 2022-03-15 17:27 罗西的思考 阅读(999) 评论(0) 推荐(0)
摘要:本文主要介绍一篇 TensorFlow 经典论文[ TensorFlow : Large-Scale Machine Learning on Heterogeneous Distributed Systems](http://download. TensorFlow .org/paper/whitepaper2015.pdf)。大家如果读了下面论文就会发现 TensorFlow分布式的博大精深。 阅读全文
posted @ 2022-03-12 09:31 罗西的思考 阅读(1607) 评论(0) 推荐(0)
摘要:经过9篇文章之后,我们基本把 HugeCTR 的训练过程梳理了以下,现在我们有必要看看HugeCTR如何进行推理,这样可以让我们从整体上有一个更好的把握。而且我们之前都是分析分布式训练,此处恰好可以看看分布式推理。 阅读全文
posted @ 2022-03-10 17:24 罗西的思考 阅读(1019) 评论(0) 推荐(0)
摘要:在这个系列中,我们介绍了 HugeCTR,这是一个面向行业的推荐系统训练框架,针对具有模型并行嵌入和数据并行密集网络的大规模 CTR 模型进行了优化。本文介绍 LocalizedSlotSparseEmbeddingHash 的后向操作。 阅读全文
posted @ 2022-03-09 20:09 罗西的思考 阅读(902) 评论(0) 推荐(0)
摘要:在这个系列中,我们介绍了 HugeCTR,这是一个面向行业的推荐系统训练框架,针对具有模型并行嵌入和数据并行密集网络的大规模 CTR 模型进行了优化。本文介绍 DistributedSlotSparseEmbeddingHash 的后向操作。 阅读全文
posted @ 2022-03-04 17:31 罗西的思考 阅读(789) 评论(0) 推荐(0)
摘要:在这系列文章中,我们介绍了 HugeCTR,这是一个面向行业的推荐系统训练框架,针对具有模型并行嵌入和数据并行密集网络的大规模 CTR 模型进行了优化。 阅读全文
posted @ 2022-02-28 16:44 罗西的思考 阅读(1581) 评论(0) 推荐(0)
摘要:在这系列文章中,我们介绍了 HugeCTR,这是一个面向行业的推荐系统训练框架,针对具有模型并行嵌入和数据并行密集网络的大规模 CTR 模型进行了优化。 阅读全文
posted @ 2022-02-23 17:42 罗西的思考 阅读(988) 评论(0) 推荐(0)
摘要:在这篇文章中,我们介绍了 HugeCTR,这是一个面向行业的推荐系统训练框架,针对具有模型并行嵌入和数据并行密集网络的大规模 CTR 模型进行了优化。 阅读全文
posted @ 2022-02-22 18:09 罗西的思考 阅读(1164) 评论(0) 推荐(0)
摘要:在这个系列中,我们介绍了 HugeCTR,这是一个面向行业的推荐系统训练框架,针对具有模型并行嵌入和数据并行密集网络的大规模 CTR 模型进行了优化。 阅读全文
posted @ 2022-02-21 19:36 罗西的思考 阅读(770) 评论(0) 推荐(0)

上一页 1 2 3 4 5 6 7 ··· 9 下一页