随笔分类 - 机器(深度)学习
处理XML-----xPath
摘要:xml下用xpath from lxml import etree tree = etree.parse(file_path) root = tree.getroot() title_expression = "/article/title[not(@xml:lang)]//text()" titl
阅读全文
处理XML--xml.etree.ElementTree
摘要:XML文档的根元素 根元素是XML文档中所有其他元素的父元素。它是文档的起点,必须是唯一的<root> <!-- 其他元素和内容 --> </root> 介绍xml信息 属性类型意义调用 tag str Element名 Element.tag attrib dic 元素有哪些属性 Element.
阅读全文
embedding嵌入
摘要:自然语言处理领域中,"embedding"(嵌入)通常指将高维的数据映射到低维空间的过程。在自然语言处理中,最常见的是词嵌入(word embeddings) 词袋模型,词嵌入等等等等。都需要构建词汇表,个人能力是很有限,根本不可能构建一个效果好的。所以我不使用这些 小型效果也不好,得到96维度的向
阅读全文
torch.max
摘要:二维张量(矩阵): 假设你有一个形状为 [m, n] 的二维张量(可以想象成一个矩阵,有 m 行和 n 列): dim=0 指的是行的方向(从上到下)。如果你在一个函数中指定 dim=0,那么操作将沿着每一列进行,对每一列中的行元素进行处理。 dim=1 指的是列的方向(从左到右)。如果你在一个函数
阅读全文
torch.cpu
摘要:将张量从GPU移到CPU上 import torch # 创建一个张量并将其放在GPU上 tensor_gpu = torch.randn((3, 3)).cuda() # 将张量从GPU移动到CPU tensor_cpu = tensor_gpu.cpu()
阅读全文
torch.detach
摘要:在深度学习中,通常使用自动微分(Autograd)来计算梯度,以便进行反向传播和优化。 在这个过程中,PyTorch会构建一个计算图,用于跟踪张量之间的计算关系。这个计算图是由各个张量之间的运算所构成的,以便在进行反向传播时计算梯度。 .detach()方法的作用是创建一个新的张量,与原始张量共享相
阅读全文
自动微分
摘要:张量的梯度信息 张量的梯度信息是指张量相对于某个或多个变量的导数。梯度表示了函数在某一点的变化率,它是一个向量,其中每个元素对应于函数相对于输入变量的偏导数 在深度学习中,我们通常使用梯度来更新模型参数,以便最小化或最大化某个损失函数。梯度下降是一种常见的优化算法,它使用梯度信息来沿着损失函数的负梯
阅读全文
torch.add等
摘要:数学运算: a = torch.tensor([[1, 2, 3], [4, 5, 6]]) b = torch.tensor([[7, 8, 9], [10, 11, 12]]) tensor([[1, 2, 3], [4, 5, 6]]) tensor([[ 7, 8, 9], [10, 11,
阅读全文
torch.cat
摘要:拼接tensor torch.cat(tensors, dim): 沿指定维度拼接张量。 tensor1 = torch.tensor([[1, 2, 3], [4, 5, 6]]) tensor2 = torch.tensor([[7, 8, 9], [10, 11, 12]]) # dim=0
阅读全文
transformer结构
摘要:论文:https://arxiv.org/abs/1706.03762 理解: 位置编码之后,还要生成QKV向量,在传递到多头注意力 定义: Transformer模型一般由编码器(Encoder)和解码器(Decoder)两部分组成,每个部分都有不同的功能,因此在不同的任务中可能会选择使用其中一个
阅读全文
torch.cuda
摘要:什么时候需要将计算放置在GPU,cuda上 计算量大的时候,有torch的时候 什么数据放在GPU 在 PyTorch 和其他深度学习框架中,通常只有模型的参数和输入到模型的数据(张量)需要被移动到 GPU 上 当从数据excel pandas中提取文本数据并通过分词器处理时,处理后的张量才需要被移
阅读全文
nn.transformer
摘要:定义: nn.Transformer: 这是一个完整的Transformer模型,包含了编码器(Encoder)和解码器(Decoder)。这个类提供了将整个模型作为一个单一组件使用的接口。 nn.TransformerEncoder: 这是Transformer模型中编码器的部分。它由N个nn.T
阅读全文
SK都是干什么的
摘要:参考文档:非常全面的Sklearn介绍 (qq.com) scikit-learn: machine learning in Python — scikit-learn 1.3.2 documentation 分类(Classification): 实现了多种监督学习分类算法,例如支持向量机(SVM
阅读全文
torch.jit
摘要:保存模型有两种方式,方式不同,在调用模型的时候也不同 我更建议用torch.jit。。。这样不需要在写模型的参数 torch.save 保存模型: import torch import torch.nn as nn # 假设 model 是你的 PyTorch 模型 class SimpleMod
阅读全文
torch.tensor
摘要:创建张量: torch.tensor(data): 从数据中创建张量。用列表创建,numpy创建 维度只看[ ] # 一维张量 一维张量是指只有一个轴的张量,没有行列之分 data_1d = [1, 2, 3] tensor_1d = torch.tensor(data_1d)结果tensor([1
阅读全文
Torch张量是什么
摘要:定义: 在PyTorch中,张量(tensor)是一种类似于多维数组的数据结构,它是PyTorch的核心数据类型。和numpy的计算方式不同。 张量可以具有不同的维度,例如标量(0维张量,类似于一个数字)、向量(1维张量,类似于一维数组)、矩阵(2维张量,类似于二维数组)以及更高维度的数组。 张量的
阅读全文
从显卡驱动,到pytoch的安装
摘要:有些东西,可能当时觉得理解了,实际上还是模模糊糊的 显卡驱动 最开始我的电脑上是没有nvidia的控制面板的,所以先安装的nvidia的驱动 官网: nvidia-smi 如果显示nvidia不是系统变量,说明驱动安装好了之后,没有添加到path中,将C:\Program Files\NVIDIA
阅读全文
LLAMA(羊驼)介绍
摘要:开源的大模型 下载又是github 又是申请账号,可能还有代理的问题。 下载的模型是pth,还不能用,还要转换成huggingface格式。 所以直接从huggingface下载就完事了
阅读全文
什么是大模型
摘要:什么是大模型 "大模型"通常指的是深度学习中参数数量庞大、层数深厚的神经网络模型。这些模型具有数十亿甚至上百亿的参数,通常需要大量的计算资源来进行训练和推断。这种规模的模型在处理复杂任务时表现得很出色,因为它们能够从大量的数据中学到更复杂、更抽象的表示。 例如,GPT-3(Generative Pr
阅读全文
浙公网安备 33010602011771号