摘要:
译者: "hijkzzz" torch.multiprocessing 是一个本地 " " ") 模块的包装. 它注册了自定义的reducers, 并使用共享内存为不同的进程在同一份数据上提供共享的视图. 一旦 tensor/storage 被移动到共享内存 (见 " " ), 将其发送到任何进程不 阅读全文
posted @ 2019-02-10 11:23
ApacheCN_飞龙
阅读(995)
评论(0)
推荐(0)
摘要:
译者: "hijkzzz" 卷积函数 conv1d 对由多个输入平面组成的输入信号进行一维卷积. 有关详细信息和输出形状, 请参见 " " . 注意 在某些情况下, 当使用CUDA后端与CuDNN时, 该操作符可能会选择不确定性算法来提高性能. 如果这不是您希望的, 您可以通过设置 来尝试使操作具有 阅读全文
posted @ 2019-02-10 11:21
ApacheCN_飞龙
阅读(921)
评论(0)
推荐(0)
摘要:
译者: "hijkzzz" 警告 这个API目前还处于试验阶段,可能在不久的将来会发生变化。 Torch支持COO(rdinate )格式的稀疏张量,这可以有效地存储和处理大多数元素为零的张量。 稀疏张量表示为一对稠密张量:一个值张量和一个二维指标张量。一个稀疏张量可以通过提供这两个张量,以及稀疏张 阅读全文
posted @ 2019-02-10 11:20
ApacheCN_飞龙
阅读(1206)
评论(0)
推荐(0)
摘要:
译者: "hijkzzz" " " 是一种包含单一数据类型元素的多维矩阵. Torch定义了八种CPU张量类型和八种GPU张量类型: | Data type | dtype | CPU tensor | GPU tensor | | | | | | | 32 bit floating point | 阅读全文
posted @ 2019-02-10 11:18
ApacheCN_飞龙
阅读(1120)
评论(0)
推荐(0)
摘要:
译者: "片刻" " " 用于设置和运行 CUDA 操作。它会跟踪当前选定的GPU,并且默认情况下会在该设备上创建您分配的所有 CUDA tensors。可以使用 " " 上下文管理器更改所选设备。 但是,一旦分配了 tensor,就可以对其进行操作而不管所选择的设备如何,结果将始终与 tensor 阅读全文
posted @ 2019-02-10 11:17
ApacheCN_飞龙
阅读(994)
评论(0)
推荐(0)
摘要:
译者: "yportne13" 作者 : "Nathan Inkawhich" 编辑 : "Teng Li" 在这篇教程中我们会展示如何使用 Amazon AWS 的两个多路GPU节点来设置,编写和运行 PyTorch 1.0 分布式训练程序。首先我们会介绍 AWS 设置, 然后是 PyTorch 阅读全文
posted @ 2019-02-10 11:15
ApacheCN_飞龙
阅读(967)
评论(0)
推荐(0)
摘要:
译者: "ETCartman" 之前我们已经学过了许多的前馈网络. 所谓前馈网络, 就是网络中不会保存状态. 然而有时 这并不是我们想要的效果. 在自然语言处理 (NLP, Natural Language Processing) 中, 序列模型是一个核心的概念. 所谓序列模型, 即输入依赖于时间信 阅读全文
posted @ 2019-02-10 11:13
ApacheCN_飞龙
阅读(832)
评论(0)
推荐(0)

浙公网安备 33010602011771号