摘要:
机器学习-泛化能力的评价指标 机器学习-感知机 机器学习-k 近邻法 机器学习-朴素贝叶斯法 机器学习-逻辑回归 机器学习-最大熵模型 机器学习-主成分分析(PCA) 机器学习-决策树 决策树-ID3、C4.5 决策树-CART 分类树 决策树-CART 回归树 决策树后剪枝 机器学习-支持向量机 阅读全文
摘要:
基于 \(RFM\) 的用户价值度分析 基于 \(AdaBoost\) 的营销响应预测 \(Python\) 解决数据样本类别分布不均衡问题 数据标准化 交叉验证 数据降维 时间序列模型 特征选择 最小费用最大流问题 异常值处理 缺失值处理 重复值处理 小波变换库 \(SMOTE\) 过采样算法 阅读全文
摘要:
$torchvision.transforms.functional.py$ 中to_tensor()函数源码: def to_tensor(pic) -> Tensor: """Convert a ``PIL Image`` or ``numpy.ndarray`` to tensor. This 阅读全文
摘要:
讲述with torch.no_grad()前,先讲述requires_grad参数。 1. requires_grad 在 $torch$ 中,$tensor$ 有一个 requires_grad参数,如果设置为 $True$,则反向传播时,该 $tensor$ 就会自动求导。 $tensor$ 阅读全文
摘要:
训练网络的时候希望保持一部分网络参数不变,只对其中一部分的参数进行调整;或训练部分分支网络,并不让其梯度对主网络的梯度造成影响,这时可以使用detach()切断一些分支的反向传播。 1. tensor.detach() 返回一个新的 $tensor$,从当前计算图中分离下来,但仍指向原 $tenso 阅读全文
摘要:
torch.nn.MaxPool2d(kernel_size, stride=None, padding=0, dilation=1, return_indices=False, ceil_mode=False) $2D$ 最大池化。 参数: kernel_size:最大池化的窗口大小,可以是单个值 阅读全文
摘要:
1. torch.cat() torch.cat(tensors, dim=0) 在给定维度中拼接张量序列。 参数: tensors:张量序列。 dim:拼接张量序列的维度。 import torch a = torch.rand(2, 3) b = torch.rand(2, 3) c = tor 阅读全文
摘要:
真实数据的维度通常很高。例如,彩色图像在高、宽 $2$ 个维度外还有 $RGB$(红、绿、蓝)$3$ 个颜色通道。我们将大小为 $3$ 称为通道数($channel$)。 1. 多输入通道 卷积核的通道数要和输入通道数一样才能进行互相关运算。 计算过程:先在每个通道上,做互相关运算;再按通道相加得到 阅读全文
摘要:
假设输入形状是 $n_h \times n_w$,卷积核窗口形状是 $k_h \times k_w$,则输出形状是 $$ (n_h - k_h + 1) \times (n_w - k_w + 1) $$ 这里介绍卷积层的两个超参数填充和步幅,它们可以改变输出形状。 1. 填充 填充($paddin 阅读全文
摘要:
描述: 百分位数表示小于这个值的观察值的百分比。 numpy.percentile(a, q, axis) 参数: a:输入数组。 q:计算的百分位数,在 $0-100$ 之间。 axis:沿着它计算百分位数的轴。 interpolation:$str$,用于估计百分位数的方法。默认 $linear 阅读全文
摘要:
1. 问题 当时用 from module import *时,希望对从模块或包导出的符号进行精确控制。 2. 解决方案 定义变量 __all__来明确地列出需要导出的内容。 def spam(): pass def grok(): pass blah = 42 # 只导出 spam、grok __ 阅读全文
摘要:
1. 广播的引出 $numpy$ 两个数组相加、相减、相乘都是对应元素之间的操作。 示例:$numpy$ 数组相乘。 import numpy as np x = np.array([[2,2,3],[1,2,3]]) y = np.array([[1,1,3],[2,2,4]]) print(x* 阅读全文