会员
众包
新闻
博问
闪存
赞助商
HarmonyOS
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
hou永胜
博客园
首页
新随笔
联系
管理
订阅
上一页
1
2
3
4
5
6
7
下一页
2020年4月16日
分类问题样本不均衡问题
摘要: 1. 欠采样 随机欠采样 EasyEnsemble BalanceCascade "Exploratory Undersampling forClass Imbalance Learning" 2. 过采样 随机过采样 SMOTE Borderline SMOTE "SMOTE: Synthetic
阅读全文
posted @ 2020-04-16 10:23 hou永胜
阅读(343)
评论(0)
推荐(0)
2020年4月13日
图像增强工具 albumentations学习总结
摘要: 图像增强工具 学习总结 CONTENT | data augmentations | link | description | | : : | : : | : : | | "CenterCrop" | "查看结果" | 中心剪裁 | | "Crop" | "查看结果" | 指定位置剪裁 | | "C
阅读全文
posted @ 2020-04-13 21:32 hou永胜
阅读(13212)
评论(0)
推荐(0)
2020年4月9日
catboost调参
摘要: 1. 网格搜索调参 参考博客: "Using Grid Search to Optimise CatBoost Parameters" 2. Bayesian方法调参: 3. 查看参数的importance python fea_df = pd.DataFrame() fea_df['feature
阅读全文
posted @ 2020-04-09 09:55 hou永胜
阅读(1937)
评论(0)
推荐(0)
2020年2月21日
动手学pytorch-文本情感分类
摘要: 文本情感分类 "1.文本情感分类数据集" "2.使用循环神经网络进行情感分类" "3.使用卷积神经网络进行情感分类" 1.文本情感分类数据 在本中,将应用预训练的词向量和含多个隐藏层的双向循环神经网络与卷积神经网络,来判断一段不定长的文本序列中包含的是正面还是负面的情绪。 使用 "斯坦福的IMDb数
阅读全文
posted @ 2020-02-21 22:26 hou永胜
阅读(2935)
评论(0)
推荐(2)
动手学pytorch-文本嵌入预训练模型Glove
摘要: 文本嵌入预训练模型Glove "1.词嵌入预训练模型" "2.Glove" "3.求近义词和类比词" 1.文本嵌入预训练模型 虽然 Word2Vec 已经能够成功地将离散的单词转换为连续的词向量,并能一定程度上地保存词与词之间的近似关系,但 Word2Vec 模型仍不是完美的,它还可以被进一步地改进
阅读全文
posted @ 2020-02-21 21:22 hou永胜
阅读(3809)
评论(0)
推荐(0)
动手学pytorch-Word2vec
摘要: Word2vec "1.词嵌入基础" "2.PTB数据集" "3.Skip Gram" "4.负采样近似" "5.训练模型" 1.词嵌入基础 使用 one hot 向量表示单词,虽然它们构造起来很容易,但通常并不是一个好选择。一个主要的原因是,one hot 词向量无法准确表达不同词之间的相似度,如
阅读全文
posted @ 2020-02-21 19:28 hou永胜
阅读(1611)
评论(0)
推荐(0)
动手学pytorch-迁移学习
摘要: 迁移学习 "1.基本概念" "2.Fine tuning" "3.Fixed" 1.基本概念 假设我们想从图像中识别出不同种类的椅子,然后将购买链接推荐给用户。一种可能的方法是先找出100种常见的椅子,为每种椅子拍摄1,000张不同角度的图像,然后在收集到的图像数据集上训练一个分类模型。这个椅子数据
阅读全文
posted @ 2020-02-21 12:07 hou永胜
阅读(253)
评论(0)
推荐(0)
动手学pytorch-图像增强
摘要: 数据增强 "1.基本概念" "2.常用增强方法" "3.叠加使用" 1.基本概念 图像增广(image augmentation)技术通过对训练图像做一系列随机改变,来产生相似但又不同的训练样本,从而扩大训练数据集的规模。图像增广的另一种解释是,随机改变训练样本可以降低模型对某些属性的依赖,从而提高
阅读全文
posted @ 2020-02-21 11:15 hou永胜
阅读(1063)
评论(0)
推荐(0)
动手学pytorch-优化算法
摘要: 优化算法 "1.Momentum" "2.AdaGrad" "3.RMSProp" "4.AdaDelta" "5.Adam" 1.Momentum 目标函数有关自变量的梯度代表了目标函数在自变量当前位置下降最快的方向。因此,梯度下降也叫作最陡下降(steepest descent)。在每次迭代中,
阅读全文
posted @ 2020-02-21 09:58 hou永胜
阅读(839)
评论(0)
推荐(0)
2020年2月20日
动手学pytorch-梯度下降
摘要: 梯度下降 ( "Boyd & Vandenberghe, 2004" ) 一维梯度下降 证明:沿梯度反方向移动自变量可以减小函数值 泰勒展开: $$ f(x+\epsilon)=f(x)+\epsilon f^{\prime}(x)+\mathcal{O}\left(\epsilon^{2}\rig
阅读全文
posted @ 2020-02-20 17:30 hou永胜
阅读(584)
评论(0)
推荐(0)
上一页
1
2
3
4
5
6
7
下一页
公告