pytorch实现神经网络分类功能
摘要:pytorch实现神经网络分类功能 以下代码使用pytorch实现神经网络分类功能: import torch import torch.nn.functional as F import matplotlib.pyplot as plt # make fake data n_data = torc
阅读全文
posted @
2021-10-23 16:20
菜小疯
阅读(306)
推荐(0)
比较不同的优化器
摘要:比较不同的优化器 以下代码比较了神经网络不同优化器的收敛速度: import torch import torch.utils.data as Data import torch.nn.functional as F from torch.autograd import Variable impor
阅读全文
posted @
2021-10-13 10:51
菜小疯
阅读(300)
推荐(0)
批数据训练
摘要:批数据训练 拥有大量数据时,可把数据分批送入神经网络训练。 分批代码如下: import torch import torch.utils.data as Data if __name__ == '__main__': BATCH_SIZE = 5 x = torch.linspace(1, 10,
阅读全文
posted @
2021-10-13 09:13
菜小疯
阅读(122)
推荐(0)
保存和读取神经网络
摘要:保存和读取神经网络 神经网络被训练到一个状态以后,我们希望能够把这个状态保存下来供下次使用。 以下代码使用两种方式来保存和读取神经网络: import numpy as np import torch from torch.autograd import Variable torch.manual_
阅读全文
posted @
2021-10-12 20:39
菜小疯
阅读(170)
推荐(0)
用Sequential快速搭建pytorch神经网络
摘要:用Sequential快速搭建pytorch神经网络 在pytorch实现回归一文中,搭建神经网络分为两步,首先确定每层结构,然后规定数据流向。 以下代码用Sequential类一步快速搭建神经网络: import torch from torch.autograd import Variable
阅读全文
posted @
2021-09-03 17:02
菜小疯
阅读(244)
推荐(0)
pytorch实现回归
摘要:pytorch实现回归 回归 此处回归即用一根曲线近似表示一堆离散点的轨迹。 上图即离散点,下图中的红线即表示离散点轨迹的曲线,求这一曲线的过程就是回归。 pytorch实现 import torch from torch.autograd import Variable import torch.
阅读全文
posted @
2021-09-03 16:06
菜小疯
阅读(236)
推荐(0)
pytorch中的激励函数
摘要:pytorch中的激励函数 以下代码绘制pytorch中的激励函数: import torch from torch.autograd import Variable import torch.nn.functional as F import matplotlib.pyplot as plt im
阅读全文
posted @
2021-09-02 19:03
菜小疯
阅读(120)
推荐(0)
Variable类
摘要:Variable类 Variable类在pytorch中定义,以下代码演示Variable的用法: import torch from torch.autograd import Variable import numpy tensor = torch.FloatTensor([[1, 2], [3
阅读全文
posted @
2021-09-02 17:36
菜小疯
阅读(91)
推荐(0)
pytorch vs numpy
摘要:pytorch vs numpy 以下代码比较pytorch和numpy的基本运算功能: import numpy as np import torch np_data = np.arange(6).reshape((2, 3)) print('numpy data:', np_data) torc
阅读全文
posted @
2021-09-02 16:46
菜小疯
阅读(213)
推荐(0)
多进程5
摘要:多进程5 本文展示在多进程中创建与使用共享变量和锁的步骤。 共享变量 import multiprocessing as mp import time def job(v, add_num): for i in range(10): time.sleep(0.1) v.value += add_nu
阅读全文
posted @
2021-08-29 15:55
菜小疯
阅读(36)
推荐(0)
多进程4
摘要:多进程4 本文使用multiprocessing中的Pool类来进行任务分配和保存返回值。 具体是使用Pool类的两个方法,分别是map方法和apply_async方法。 map方法 以下代码使用map方法: import multiprocessing as mp def job(a): retu
阅读全文
posted @
2021-08-29 10:52
菜小疯
阅读(58)
推荐(0)
多进程3
摘要:多进程3 以下代码比较了多线程、多进程和普通顺序执行所耗费的时间: import multiprocessing as mp import threading import time def job(): a = 0 for i in range(10000): for j in range(100
阅读全文
posted @
2021-08-28 20:50
菜小疯
阅读(45)
推荐(0)
多进程2
摘要:多进程2 与线程类似,进程无法返回一个值,我们还是可以使用Queue来返回值。 以下代码使用了Queue: import multiprocessing as mp def job1(qq, x): x = x * 2 qq.put(x) if __name__ == '__main__': q =
阅读全文
posted @
2021-08-28 17:35
菜小疯
阅读(20)
推荐(0)
多进程
摘要:多进程 以下代码创建一个进程: import multiprocessing as mp def job1(): print('this is a process') if __name__ == '__main__': p1 = mp.Process(target=job1) p1.start()
阅读全文
posted @
2021-08-28 15:57
菜小疯
阅读(46)
推荐(0)
多线程4
摘要:多线程4 为了等待线程执行完毕,除了多线程2中提到的join,还可以使用本文的lock。 以下代码展示未使用lock的情况: import threading def thread1_job(): global A for i in range(10): A += 1 print('thread1'
阅读全文
posted @
2021-08-28 12:02
菜小疯
阅读(44)
推荐(0)
多线程3
摘要:多线程3 线程任务无法像函数一样用return返回一个值,Queue类是解决这个问题的一种方法。 以下代码用Queue方法返回线程任务的处理结果: import threading from queue import Queue def thread1_job(lis, q): for i in r
阅读全文
posted @
2021-08-28 10:49
菜小疯
阅读(28)
推荐(0)
多线程2
摘要:多线程2 两个线程 以下代码演示两个线程同时进行的情况: import threading import time def thread1_job(): print("thread1 start") for i in range(10): time.sleep(0.1) print('thread1
阅读全文
posted @
2021-08-27 22:38
菜小疯
阅读(31)
推荐(0)
多线程
摘要:多线程 以下代码实现添加一个进程并运行: import threading def thread_job(): print("This is an added Thread, and I feel good") def main(): added_thread = threading.Thread(
阅读全文
posted @
2021-08-27 17:03
菜小疯
阅读(18)
推荐(0)