随笔分类 -  深度学习和tf&pytorch

摘要:Math operation 数学运算 Add/minus/multiply/divide Matmul Pow Sqrt/rsqrt Round 加减乘除 >>> a=torch.rand(3,4) >>> b=torch.rand(3) >>> a+b Traceback (most recen 阅读全文
posted @ 2020-04-13 19:21 wqbin 阅读(909) 评论(0) 推荐(0)
摘要:pytorch数据类型 python数据类型 Int float Int array Float array torch数据类型 tensor of size() FloatTensor of size() Int array IntTensor of size [d1, d2 ,…] Float 阅读全文
posted @ 2020-04-11 23:53 wqbin 阅读(973) 评论(0) 推荐(0)
摘要:好久没有更新pytorch,这次更新做个笔记 1.安装CUDA https://developer.nvidia.com/cuda-toolkit-archive 设置环境变量后输入nvcc -V C:\Users\WQBin>nvcc -V nvcc: NVIDIA (R) Cuda compil 阅读全文
posted @ 2020-04-11 11:44 wqbin 阅读(486) 评论(0) 推荐(0)
摘要:什么是激活函数? 激活函数(Activation functions)对于人工神经网络模型去学习、理解非常复杂和非线性的函数来说具有十分重要的作用。 它们将非线性特性引入到我们的网络中。其主要目的是将A-NN模型中一个节点的输入信号转换成一个输出信号。该输出信号现在被用作堆叠中下一个层的输入。 如果 阅读全文
posted @ 2019-06-27 21:03 wqbin 阅读(4643) 评论(0) 推荐(0)
摘要:1.比较Boosting和Bagging的异同 二者都是集成学习算法,都是将多个弱学习器组合成强学习器的方法。 Bagging:从原始数据集中每一轮有放回地抽取训练集,训练得到k个弱学习器,将这k个弱学习器以投票的方式得到最终的分类结果。 Boosting:每一轮根据上一轮的分类结果动态调整每个样本 阅读全文
posted @ 2019-06-22 22:35 wqbin 阅读(1228) 评论(0) 推荐(0)
摘要:问题 1.列举常见的一些范数及其应用场景,如L0,L1,L2,L∞,Frobenius范数 2.简单介绍一下贝叶斯概率与频率派概率,以及在统计中对于真实参数的假设。 3.概率密度的万能近似器 4.简单介绍一下sigmoid,relu,softplus,tanh,RBF及其应用场景 5.Jacobia 阅读全文
posted @ 2019-06-22 22:31 wqbin 阅读(447) 评论(0) 推荐(1)
摘要:层数比较多的神经网络模型在训练时也是会出现一些问题的,其中就包括梯度消失问题(gradient vanishing problem)和梯度爆炸问题(gradient exploding problem)。梯度消失问题和梯度爆炸问题一般随着网络层数的增加会变得越来越明显。 例如,对于下图所示的含有3个 阅读全文
posted @ 2019-06-22 22:22 wqbin 阅读(1732) 评论(0) 推荐(0)