上一页 1 ··· 18 19 20 21 22 23 24 25 26 ··· 28 下一页
摘要: python3 亲试可行 1、pip install python-whois 2、 def is_registered(domain_name): """ A function that returns a boolean indicating whether a `domain_name` is 阅读全文
posted @ 2021-05-21 14:56 哈哈哈喽喽喽 阅读(101) 评论(0) 推荐(0)
摘要: tensor.repeat和torch.repeat_interleave tensor.repeat() a = torch.tensor([[1,2],[3,4]]) a.repeat((2,1)) 表示在行的维度复制2遍,列维度不变,结果为tensor([[1, 2], [3, 4],[1, 阅读全文
posted @ 2021-05-19 23:22 哈哈哈喽喽喽 阅读(52) 评论(0) 推荐(0)
摘要: 1.需要在git命令窗口生成公私钥 2.在github的profile中添加步骤1生成的公钥即可 阅读全文
posted @ 2021-05-19 00:35 哈哈哈喽喽喽 阅读(199) 评论(0) 推荐(0)
摘要: 画简单的图 import matplotlib.pyplot as plt import numpy as np x = np.linspace(0, 2 * np.pi, 50) y = np.sin(x) plt.plot(x, y) 同一个图画多个曲线 x = np.linspace(0, 2 阅读全文
posted @ 2021-05-17 16:43 哈哈哈喽喽喽 阅读(61) 评论(0) 推荐(0)
摘要: 1、https://www.ping.cn/ping/ 如果结果有很多IP,则可能是经过cdn地址 2、get-site-ip.com 3、http://tool.chinaz.com/ 阅读全文
posted @ 2021-05-10 15:36 哈哈哈喽喽喽 阅读(479) 评论(0) 推荐(0)
摘要: 优化 在一个深度学习问题中,我们通常会预先定义一个损失函数。有了损失函数以后,我们就可以使用优化算法试图将其最小化。在优化中,这样的损失函数通常被称作优化问题的目标函数(objective function)。依据惯例,优化算法通常只考虑最小化目标函数。其实,任何最大化问题都可以很容易地转化为最小化 阅读全文
posted @ 2021-05-08 11:41 哈哈哈喽喽喽 阅读(572) 评论(0) 推荐(0)
摘要: 批量归一化层和 dropout 层一样,在训练模式和预测模式下计算不同 阅读全文
posted @ 2021-05-06 17:12 哈哈哈喽喽喽 阅读(53) 评论(0) 推荐(0)
摘要: 主要作用是:训练深层神经网络是十分困难的,特别是在较短的时间内使他们收敛更加棘手,可持续加速深层网络的收敛速度。 怎么达到加速深层网络的收敛速度: 1、数据的预处理影响收敛速度和调参难度,比较明显的例子是线性回归,如果特征量纲差别特别大,他的斜率可能近视90度或者0度,收敛速度和调参是比较困难的。B 阅读全文
posted @ 2021-05-06 17:07 哈哈哈喽喽喽 阅读(512) 评论(0) 推荐(0)
摘要: # 生成数据 import torch from matplotlib import pyplot as plt import random import traceback # create data def create_data(W, b, num): X = torch.normal(mea 阅读全文
posted @ 2021-04-30 18:08 哈哈哈喽喽喽 阅读(54) 评论(0) 推荐(0)
摘要: 1、自己创建一个2维线性回归数据集 import torch from matplotlib import pyplot as plt import random import traceback # create data def create_data(W, b, num): X = torch 阅读全文
posted @ 2021-04-30 12:45 哈哈哈喽喽喽 阅读(63) 评论(0) 推荐(0)
上一页 1 ··· 18 19 20 21 22 23 24 25 26 ··· 28 下一页