摘要:
1.debug,全部打印 2.打断点debug,出现单步调试等按钮,只运行断点前 3.setup over 调试一行代码 4.setup out 运行断点后面所有代码 5.debug窗口显示调试按钮 6.运行到对应的点会显示变量的值 7.step into:单步执行,遇到子函数就进入并且继续单步执行 阅读全文
posted @ 2019-06-22 22:05
交流_QQ_2240410488
阅读(1290)
评论(0)
推荐(0)
摘要:
step into:单步执行,遇到子函数就进入并且继续单步执行(简而言之,进入子函数); step over:在单步执行时,在函数内遇到子函数时不会进入子函数内单步执行,而是将子函数整个执行完再停止,也就是把子函数整个作为一步。有一点,经过我们简单的调试,在不存在子函数的情况下是和step into 阅读全文
posted @ 2019-06-22 21:59
交流_QQ_2240410488
阅读(1756)
评论(0)
推荐(0)
摘要:
1、终端(terminal) 终端(termimal)= tty(Teletypewriter, 电传打印机),作用是提供一个命令的输入输出环境,在linux下使用组合键ctrl+alt+T打开的就是终端,可以认为terminal和tty是同义词。 2、shell shell是一个命令行解释器,是l 阅读全文
posted @ 2019-06-22 21:25
交流_QQ_2240410488
阅读(1879)
评论(0)
推荐(0)
摘要:
pytorch 的 Variable 对象中有两个方法,detach和 detach_ 本文主要介绍这两个方法的效果和 能用这两个方法干什么。 detach 官方文档中,对这个方法是这么介绍的。 返回一个新的 从当前图中分离的 Variable。返回的 Variable 永远不会需要梯度如果 被 d 阅读全文
posted @ 2019-06-22 17:41
交流_QQ_2240410488
阅读(244)
评论(0)
推荐(0)
摘要:
记录一下对RNN,LSTM,GRU基本原理(正向过程以及简单的反向过程)的个人理解 RNN Recurrent Neural Networks,循环神经网络 (注意区别于recursive neural network,递归神经网络) 为了解决DNN存在着无法对时间序列上的变化进行建模的问题(如自然 阅读全文
posted @ 2019-06-22 15:48
交流_QQ_2240410488
阅读(878)
评论(0)
推荐(0)
摘要:
本文中的RNN泛指LSTM,GRU等等 CNN中和RNN中batchSize的默认位置是不同的。 CNN中:batchsize的位置是position 0. RNN中:batchsize的位置是position 1. 在RNN中输入数据格式: 对于最简单的RNN,我们可以使用两种方式来调用,torc 阅读全文
posted @ 2019-06-22 15:43
交流_QQ_2240410488
阅读(4463)
评论(1)
推荐(2)
摘要:
1、softmax 函数 Softmax(x) 也是一个 non-linearity, 但它的特殊之处在于它通常是网络中一次操作. 这是因为它接受了一个实数向量并返回一个概率分布.其定义如下. 定义 x 是一个实数的向量(正数或负数都无所谓, 没有限制). 然后, 第i个 Softmax(x) 的组 阅读全文
posted @ 2019-06-22 15:30
交流_QQ_2240410488
阅读(9032)
评论(0)
推荐(0)
摘要:
零 seq2seq是从序列到序列的学习过程,最重要的是输入序列和输出序列是可变长的,这种方式就非常灵活了,典型的机器翻译就是这样一个过程。 一 最基本的seq2seq网络架构如下所示: 可以看到,encoder构成一个RNN的网络,decoder也是一个RNN的网络。训练过程和推断过程有一些不太一样 阅读全文
posted @ 2019-06-22 15:23
交流_QQ_2240410488
阅读(548)
评论(0)
推荐(0)
摘要:
squeeze的用法主要就是对数据的维度进行压缩或者解压。 先看torch.squeeze() 这个函数主要对数据的维度进行压缩,去掉维数为1的的维度,比如是一行或者一列这种,一个一行三列(1,3)的数去掉第一个维数为一的维度之后就变成(3)行。squeeze(a)就是将a中所有为1的维度删掉。不为 阅读全文
posted @ 2019-06-22 14:43
交流_QQ_2240410488
阅读(1468)
评论(0)
推荐(0)
摘要:
发现 对于torch.matmul和torch.bmm,都能实现对于batch的矩阵乘法: a = torch.rand((2,3,10))b = torch.rand((2,2,10))### matmal()res1 = torch.matmul(a,b.transpose(1,2))print 阅读全文
posted @ 2019-06-22 14:14
交流_QQ_2240410488
阅读(6028)
评论(0)
推荐(0)
摘要:
import torch x = torch.randn(128, 20) # 输入的维度是(128,20)m = torch.nn.Linear(20, 30) # 20,30是指维度output = m(x)print('m.weight.shape:\n ', m.weight.shape)p 阅读全文
posted @ 2019-06-22 13:24
交流_QQ_2240410488
阅读(13696)
评论(0)
推荐(0)
摘要:
基于BP神经网络与遗传算法实现盾构砂浆性能优化方法技术 技术编号:14113655阅读:494留言:0更新日期:2016-12-07 11:00 基于BP神经网络与遗传算法实现盾构砂浆性能优化方法技术 技术编号:14113655阅读:494留言:0更新日期:2016-12-07 11:00 本发明专 阅读全文
posted @ 2019-06-22 11:09
交流_QQ_2240410488
阅读(196)
评论(0)
推荐(0)
摘要:
刚从图像处理的hole中攀爬出来,刚走一步竟掉到了另一个hole(fire in the hole*▽*) 1.RNN中的attentionpytorch官方教程:https://pytorch.org/tutorials/intermediate/seq2seq_translation_tutor 阅读全文
posted @ 2019-06-22 10:59
交流_QQ_2240410488
阅读(4550)
评论(1)
推荐(0)

浙公网安备 33010602011771号