07 2023 档案

摘要:Tensor advanced operation ▪ Where ▪ Gather # where 返回的最终的tensor中的每一个值有可能来着A,也有可能来自B。 >torch.where(condition,A,B)->tensor 满足condition条件则该位置为A[..],否则为B[ 阅读全文
posted @ 2023-07-31 23:14 lipu123 阅读(50) 评论(0) 推荐(0)
摘要:statistics ▪ norm (范数) ▪ mean,sum (平均值,求和) ▪ prod (累乘) ▪ max, min, argmin, argmax ▪ kthvalue, topk(第k大) # norm(范式) 这里面有一范式和二范式。 一范式: $$||x||_1=\sum_k| 阅读全文
posted @ 2023-07-31 21:47 lipu123 阅读(292) 评论(0) 推荐(0)
摘要:Math operation ▪ Add/minus/multiply/divide(加减乘除) ▪ Matmul(矩阵相乘) ▪ Pow(次方) ▪ Sqrt/rsqrt(次方根) ▪ Round() add/minus/multiply/divide 这个使用的时候可以直接使用运算符"+,-,* 阅读全文
posted @ 2023-07-31 14:50 lipu123
摘要:Merge or split ▪ Cat(合并) ▪ Stack(合并) ▪ Split(拆分) ▪ Chunk(拆分) # 合并 ## cat 这个就是合并两个tensor 比如说有两个班级的成绩单,一个是1-4班的,一个是5-9班的,我们现在需要合并这两份成绩单。 ▪ Statistics ab 阅读全文
posted @ 2023-07-31 10:10 lipu123 阅读(187) 评论(0) 推荐(0)
摘要:Broadcasting是一种没有copy数据的expand Key idea: - 不过两个维度不相同,在前面插入维度1 - 扩张维度1到相同的维度 例如:Feature maps:[4,32,14,14] Bias:[32,1,1]=>[1,32,1,1]=>[4,32,14,14] A:[32 阅读全文
posted @ 2023-07-30 22:19 lipu123 阅读(99) 评论(0) 推荐(0)
摘要:▪ View/reshape(这个是维度的变化) ▪ Squeeze/unsqueeze(维度的增加/减少) ▪ Transpose/t/permute(维度交换) ▪ Expand/repeat(维度的扩展) # view/reshape 这两个API,都是通用的a.reshape()和a.vie 阅读全文
posted @ 2023-07-30 19:01 lipu123 阅读(140) 评论(0) 推荐(0)
摘要:# indexing ``` a=torch.randn(4,3,28,28) a[0].shape # torch.Size([3, 28, 28]) a[0,0].shape # torch.Size([28, 28]) a[0,0,2,4] # tensor(0.6574) ``` # sel 阅读全文
posted @ 2023-07-30 16:15 lipu123 阅读(64) 评论(0) 推荐(0)
摘要:# Import from numpy >torch.from_numpy(data) ``` a=np.array([2,3.3]) a #array([2. , 3.3]) torch.from_numpy(a) #tensor([2.0000, 3.3000], dtype=torch.flo 阅读全文
posted @ 2023-07-30 10:51 lipu123 阅读(34) 评论(0) 推荐(0)
摘要:python和pytorch中的类型对比: 我们可以发现pytorch中每中类型后面都有一个Tensor。 ![image](https://img2023.cnblogs.com/blog/1914163/202307/1914163-20230729211210389-1808416709.pn 阅读全文
posted @ 2023-07-29 22:40 lipu123 阅读(72) 评论(0) 推荐(0)
摘要:# 1 词嵌入和词向量 ## 1.1 什么是词嵌入: 咱们居住在各个国家的人们通过各自的语言进行交流,但机器无法直接理解人类的语言,所以需要先把人类的语言“计算机化”,那如何变成计算机可以理解的语言呢? * 首先,这个数学模型 f(比如神经网络、SVM)只接受数值型输入; * 而 NLP 里的词语, 阅读全文
posted @ 2023-07-28 23:00 lipu123 阅读(220) 评论(0) 推荐(0)
摘要:本文将使用 Tensorflow 中包含的 Fashion MNIST 数据集。该数据集在训练集中包含 60,000 张灰度图像,在测试集中包含 10,000 张图像。 每张图片代表属于 10 个类别之一的单品(“T 恤/上衣”、“裤子”、“套头衫”等)。 因此这是一个多类分类问题。 首先我们需要安 阅读全文
posted @ 2023-07-24 17:15 lipu123 阅读(347) 评论(0) 推荐(0)
摘要:# 1 贝叶斯优化的基本原理 贝叶斯优化方法是当前超参数优化领域的SOTA手段,可以被认为是当前最为先进的优化框架,它可以被应用于AutoML的各大领域,不止限于超参数搜索HPO的领域,更是可以被用于神经网络架构搜索NAS以及元学习等先进的领域。现代几乎所有在效率和效果上取得优异成果的超参数优化方法 阅读全文
posted @ 2023-07-22 14:03 lipu123 阅读(1733) 评论(0) 推荐(0)
摘要:# 1 枚举网格搜索(Exhaustive Grid Search) ## 1.1 基本原理 在所有超参数优化的算法当中,枚举网格搜索是最为基础和经典的方法。在搜索开始之前,我们需要人工将每个超参数的备选值一一列出,多个不同超参数的不同取值之间排列组合,最终将组成一个参数空间(parameter s 阅读全文
posted @ 2023-07-21 14:04 lipu123 阅读(1201) 评论(0) 推荐(0)
摘要:# 1 堆叠法Stacking ## 1.1 堆叠法的基本思想 堆叠法Stacking是近年来模型融合领域最为热门的方法,它不仅是竞赛冠军队最常采用的融合方法之一,也是工业中实际落地人工智能时会考虑的方案之一。作为强学习器的融合方法,Stacking集**模型效果好、可解释性强、适用复杂数据**三大 阅读全文
posted @ 2023-07-21 10:09 lipu123 阅读(2068) 评论(0) 推荐(0)
摘要:# 1 认识模型融合 在机器学习竞赛界,流传着一句话:**当一切都无效的时候,选择模型融合**。这句话出自一位史上最年轻的Kaggle Master之口,无疑是彰显了模型融合这一技巧在整个机器学习世界的地位。如果说机器学习是人工智能技术中的王后,集成学习(ensemble Learning)就是王后 阅读全文
posted @ 2023-07-18 16:20 lipu123 阅读(749) 评论(0) 推荐(0)
摘要:# 1 XGBoost的基础思想与实现 ## 1.1 XGBoost pk 梯度提升树 极限提升树XGBoost(Extreme Gradient Boosting,XGB,发音/æks-g-boost/)是基于梯度提升树GBDT全面升级的新一代提升算法,也是提升家族中最富盛名、最灵活、最被机器学习 阅读全文
posted @ 2023-07-17 16:59 lipu123 阅读(730) 评论(0) 推荐(0)
摘要:上一个博客AdaBoost算法只能说是开山鼻祖,今天要说的这个GBDT才是Boosting领域里面最为强大的算法之一。XGBoost和LightGBM也是在这个算法的基础上进行改进。 # 1 梯度提升树的基本思想 梯度提升树(Gradient Boosting Decision Tree,GBDT) 阅读全文
posted @ 2023-07-16 10:10 lipu123 阅读(689) 评论(0) 推荐(0)
摘要:https://www.cnblogs.com/bytesfly/p/markdown-formula.html 注意这些用的时候都要用$$标签包裹,居中单独一行显示的话用$$$$包裹 1 除法 用这个:$\frac{分子}{分母}$ \[\frac{分子}{分母} \]2 上标和下标 用这个:$X 阅读全文
posted @ 2023-07-14 15:15 lipu123
摘要:# 1 Boosting方法的基本思想 在集成学习的“弱分类器集成”领域,除了降低方差来降低整体泛化误差的装袋法Bagging,还有专注于**降低整体偏差**来降低泛化误差的提升法Boosting。相比起操作简单、大道至简的Bagging算法,Boosting算法在操作和原理上的难度都更大,但由于专 阅读全文
posted @ 2023-07-12 23:34 lipu123 阅读(347) 评论(0) 推荐(0)
摘要:集成学习是工业领域中应用最广泛的机器学习算法。实际工业环境下的数据量往往十分巨大,一个训练好的集成算法的复杂程度与训练数据量高度相关,因此企业在应用机器学习时通常会提供强大的计算资源作为支持,也因此当代的大部分集成算法都是支持GPU运算的(相对的,如果你发现一个算法在任何机器学习库中,都没有接入GP 阅读全文
posted @ 2023-07-12 18:25 lipu123 阅读(765) 评论(0) 推荐(0)
摘要:# 1 数据介绍 ![image](https://img2023.cnblogs.com/blog/1914163/202307/1914163-20230708104521132-1965248378.png) 首先看看这个数据,是从2005年到2008年的每一个小时的电力消耗值。 # 2 实现 阅读全文
posted @ 2023-07-12 14:26 lipu123 阅读(535) 评论(1) 推荐(0)
摘要:sklearn在2022年进行了一次大的更新。 这里我们跟新的时候要先更新pip: ``` pip install --upgrade scikit-learn ``` # 1 集成学习的三大关键领域 集成学习(Ensemble learning)是机器学习中最先进、最有效、最具研究价值的领域之一, 阅读全文
posted @ 2023-07-09 22:47 lipu123 阅读(130) 评论(0) 推荐(0)
摘要:ReLU激活函数只能在隐藏层中使用。 Sigmoid/Logistic和Tanh函数不应该用于隐藏层,因为它们会在训练过程中引起问题。 Swish函数用于深度大于40层的神经网络会好很多。 输出层的激活函数是由你要解决的预测问题的类型决定的。以下是一些需要记住的基本原则: 回归-线性激活函数 二元分 阅读全文
posted @ 2023-07-06 21:46 lipu123 阅读(36) 评论(0) 推荐(0)