上一页 1 ··· 709 710 711 712 713 714 715 716 717 ··· 851 下一页
摘要: 译者:kunwuz torch.hub.load(github, model, force_reload=False, *args, **kwargs) 从github上加载一个带有预训练权重的模型。 参数: github – 必需,一个字符串对象,格式为“repo_owner/repo_name[ 阅读全文
posted @ 2023-03-08 16:58 绝不原创的飞龙 阅读(268) 评论(0) 推荐(0)
摘要: 译者:keyianpai 创建 Torch 脚本代码将追踪和脚本化结合起来Torch 脚本语言参考 类型表达式语句变量解析python值的使用调试内置函数 Torch脚本是一种从PyTorch代码创建可序列化和可优化模型的方法。用Torch脚本编写的代码可以从Python进程中保存,并在没有Pyth 阅读全文
posted @ 2023-03-07 09:53 绝不原创的飞龙 阅读(83) 评论(0) 推荐(0)
摘要: LINE: Large-scale Information Network Embedding Arxiv 1503.03578 三、问题定义 我们使用一阶和二阶邻近度,正式定义了大规模信息网络嵌入问题。 我们首先定义一个信息网络如下: 定义 1(信息网络):信息网络定义为G = (V, E),其中 阅读全文
posted @ 2023-03-04 21:41 绝不原创的飞龙 阅读(118) 评论(0) 推荐(0)
摘要: 译者:cangyunye 作者: Adam Paszke 修订者: Adam Dziedzic 在这个教程里,我们要完成两个任务: 创建一个无参神经网络层。 这里需要调用numpy作为实现的一部分。 创建一个权重自主优化的伸进网络层。 这里需要调用Scipy作为实现的一部分。 import torc 阅读全文
posted @ 2023-03-03 23:23 绝不原创的飞龙 阅读(30) 评论(0) 推荐(0)
摘要: 译者:冯宝宝 本教程将向您展示如何使用ONNX将已从PyTorch导出的神经模型传输模型转换为Apple CoreML格式。这将允许您在Apple设备上轻松运行深度学习模型,在这种情况下,可以从摄像机直播演示。 什么是ONNX ONNX(开放式神经网络交换)是一种表示深度学习模型的开放格式。借助ON 阅读全文
posted @ 2023-03-01 15:18 绝不原创的飞龙 阅读(206) 评论(0) 推荐(0)
摘要: 译者: belonHan 注意 checkpointing的实现方法是在向后传播期间重新运行已被checkpint的前向传播段。 所以会导致像RNG这类(模型)的持久化的状态比实际更超前。默认情况下,checkpoint包含了使用RNG状态的逻辑(例如通过dropout),与non-checkpoi 阅读全文
posted @ 2023-02-23 23:51 绝不原创的飞龙 阅读(275) 评论(0) 推荐(0)
摘要: 7.14 处理时间序列 原文:Working with Time Series 译者:飞龙 协议:CC BY-NC-SA 4.0 本节是《Python 数据科学手册》(Python Data Science Handbook)的摘录。 Pandas 是在金融建模的背景下开发的,正如你所料,它包含一组 阅读全文
posted @ 2023-02-23 07:45 绝不原创的飞龙 阅读(133) 评论(0) 推荐(0)
摘要: 9.3 理解 Python 中的数据类型 本节是《Python 数据科学手册》(Python Data Science Handbook)的摘录。 译者:飞龙 协议:CC BY-NC-SA 4.0 数据驱动的科学和有效计算需要了解数据的存储和操作方式。本节概述了如何在 Python 语言本身中处理数 阅读全文
posted @ 2023-02-21 15:22 绝不原创的飞龙 阅读(53) 评论(0) 推荐(0)
摘要: 9.4 NumPy 数组的基础 本节是《Python 数据科学手册》(Python Data Science Handbook)的摘录。 译者:飞龙 协议:CC BY-NC-SA 4.0 Python 中的数据操作几乎与 NumPy 数组操作同义:即使是像 Pandas 这样的新工具也是围绕 Num 阅读全文
posted @ 2023-02-21 15:22 绝不原创的飞龙 阅读(75) 评论(0) 推荐(0)
摘要: 译者:univeryinli 后端 torch.distributed 支持三个后端,每个后端具有不同的功能。下表显示哪些功能可用于CPU/CUDA张量。仅当用于构建PyTorch的实现支持时,MPI才支持CUDA。 后端gloompinccl设备CPUGPUCPU————发送✓✘✓接收✓✘✓广播✓ 阅读全文
posted @ 2023-02-21 00:57 绝不原创的飞龙 阅读(137) 评论(0) 推荐(0)
上一页 1 ··· 709 710 711 712 713 714 715 716 717 ··· 851 下一页