上一页 1 ··· 12 13 14 15 16 17 18 19 20 ··· 58 下一页
摘要: Windows Commands 常用命令 REM 查看命令帮助 HELP [command] REM 显示消息,或将命令回显打开或关闭 ECHO REM 显示当前目录的名称或将其更改 CD REM 清除屏幕 CLS REM 启动单独的窗口以运行指定的程序或命令 START REM 显示环境变量 P 阅读全文
posted @ 2025-02-17 23:59 Undefined443 阅读(26) 评论(0) 推荐(0)
摘要: 安装 PyTorch 和 Transformers 库 pip install torch transformers 加载分词器 from transformers import AutoTokenizer # 加载分词器 tokenizer = AutoTokenizer.from_pretrai 阅读全文
posted @ 2025-02-17 22:59 Undefined443 阅读(19) 评论(0) 推荐(0)
摘要: 简介 在深度学习领域,正则化是一种用于减小模型方差(避免过拟合)的方法。 偏差(bias):欠拟合 方差(variance):过拟合 正则化的方法是在成本函数中加入正则化项。 \(L_2\) 正则化 \[J(w, b) = \frac{1}{m} \sum_{i=1}^m \mathcal{L}(\ 阅读全文
posted @ 2025-02-13 15:35 Undefined443 阅读(24) 评论(0) 推荐(0)
摘要: Git 子模块(submodule)允许你将一个 Git 仓库作为另一个 Git 仓库的子目录。 添加子模块 基本语法: git submodule add <repository> <path> 示例 git submodule add https://github.com/example/rep 阅读全文
posted @ 2025-02-13 12:06 Undefined443 阅读(22) 评论(0) 推荐(0)
摘要: 在机器学习和深度学习中,数据集通常被分为不同的部分,主要包括训练集(training set)、验证集(validation set)和测试集(test set)。这里介绍一下这些数据集的作用和区别: 训练集(Training Set): 这是用于训练模型的数据集。模型在这个数据集上学习以理解输入数 阅读全文
posted @ 2025-02-10 13:29 Undefined443 阅读(170) 评论(0) 推荐(0)
摘要: 直接处理 import sys # 检查参数数量 if len(sys.argv) < 2: print("Usage: python script.py arg1 [arg2 ...]") sys.exit(1) # 第一个参数是脚本自身名称 script_name = sys.argv[0] # 阅读全文
posted @ 2025-02-08 02:14 Undefined443 阅读(34) 评论(0) 推荐(0)
摘要: 基本组件 卷积 相乘,再求和。 \[C_{x,y} = \sum A_{i,j,k} \times B_{i,j,k} \] 有几个卷积核,输出通道数就是几。 一维卷积 二维卷积 参见: Convolutions Over Volume | Coursera But what is a convol 阅读全文
posted @ 2025-01-27 01:29 Undefined443 阅读(20) 评论(0) 推荐(0)
摘要: 对于 \(n\) 维向量 \(\mathbf{x} = \begin{bmatrix} x_1 \\ x_2 \\ \vdots \\ x_n \end{bmatrix}\) 中的元素 \(x_i\),可以计算 softmax: \[\text{softmax}(x_i)=\frac{e^{x_i} 阅读全文
posted @ 2025-01-24 01:05 Undefined443 阅读(11) 评论(0) 推荐(0)
摘要: 自注意力 可以将 \(q^{<i>}\) 理解为单词 \(x^{<i>}\) 提出的问题,将 \(k^{<j>}\) 理解为单词 \(x^{<j>}\) 做出的回答。将 \(v^{<z>}\) 理解为单词 \(x^{<z>}\) 的含义。 参考:Self-Attention | Coursera 多 阅读全文
posted @ 2025-01-23 23:48 Undefined443 阅读(33) 评论(0) 推荐(0)
摘要: DistributedDataParallel PyTorch 中的 DistributedDataParallel 和 Elastic 是用于支持分布式训练的两个相关组件,常常结合使用。 DistributedDataParallel 用于在多个 GPU 上实现数据并行的分布式训练。其在每个 GP 阅读全文
posted @ 2025-01-21 17:26 Undefined443 阅读(126) 评论(0) 推荐(0)
上一页 1 ··· 12 13 14 15 16 17 18 19 20 ··· 58 下一页