上一页 1 ··· 137 138 139 140 141 142 143 144 145 ··· 155 下一页
摘要: 深度神经网络 (DNN) 已经发展到现在已经可以在计算机视觉和自然语言处理等许多任务上表现非常出色。而现在主要的研究是如何训练这些 DNN 以提高其准确性。准确性的主要问题是神经网络极易受到对抗性扰动的影响。 例如下面的图片,添加噪声之前和之后的两张图像对我们来说似乎相同。但对于神经网络来说,右边的 阅读全文
posted @ 2022-04-05 11:34 deephub 阅读(88) 评论(0) 推荐(0)
摘要: 今天我将讨论一些在过去十年中出现的主要的半监督学习模型。首先让我们谈谈什么是半监督学习以及我们为什么对它感兴趣! 假设我们有一个大的标记图像数据集。我们想使用这些数据来构建一个模型,进行图像分类的任务,解决这个问题的标准方法是构建卷积神经网络 (CNN)。CNN 已被证明在使用大型数据集进行训练时可 阅读全文
posted @ 2022-04-04 10:37 deephub 阅读(208) 评论(0) 推荐(0)
摘要: 异常检测是指数据科学中可帮助发现数据集中的异常值有用的技术。异常检测在处理时间序列数据时特别有用。例如时间序列数据来自传感器测量结果(例如压力和温度),由于设备故障和瞬态现象等问题包含许多异常点, 异常检测有助于消除这些点异常值,以优化时间序列数据中的信号。对于销量预测等需求异常点也可以表示为活动或 阅读全文
posted @ 2022-04-02 10:05 deephub 阅读(208) 评论(0) 推荐(0)
摘要: 图像模糊是由相机或拍摄对象移动、对焦不准确或使用光圈配置不当导致的图像不清晰。为了获得更清晰的照片,我们可以使用相机镜头的首选焦点重新拍摄同一张照片,或者使用深度学习知识重现模糊的图像。由于我的专长不是摄影,只能选择使用深度学习技术对图像进行去模糊处理! 在开始这个项目之前,本文假定读者应该了解深度 阅读全文
posted @ 2022-04-01 10:02 deephub 阅读(198) 评论(0) 推荐(0)
摘要: Transformer 的出色表现让注意力机制出现在深度学习的各处。本文整理了深度学习中最常用的6种注意力机制的数学原理和代码实现。 1、Full Attention 2017的《Attention is All You Need》中的编码器-解码器结构实现中提出。它结构并不复杂,所以不难理解。 上 阅读全文
posted @ 2022-03-31 10:18 deephub 阅读(523) 评论(0) 推荐(0)
摘要: 显卡大幅降价了但是还可以再等等,新的40系列显卡也要发售了,所以我们先看看目前上市的显卡的性能对比,这样也可以估算下40显卡的性能,在以后购买时作为参考。 但是在本文之前一定要说下的是:本文并不推荐现在就买显卡,除非必须,现在一定不要买显卡,谁买谁吃亏,目前的情况是,“等” 就对了 回到正题,在这篇 阅读全文
posted @ 2022-03-30 10:46 deephub 阅读(1044) 评论(0) 推荐(0)
摘要: 近年来机器学习在各个金融领域各个方面均有应用,其实金融领域的场景是很适合强化学习应用的,但是由于金融领域真金白银的,以目前强化学习的学习效率估计愿意尝试的人不多,但是并不妨碍我们学习和了解这方面的知识。 Reinforcement learning in market games(arxiv 071 阅读全文
posted @ 2022-03-29 10:41 deephub 阅读(261) 评论(0) 推荐(0)
摘要: 你一定听说过这句著名的数据科学名言: 在数据科学项目中, 80% 的时间是在做数据处理。 如果你没有听过,那么请记住:数据清洗是数据科学工作流程的基础。机器学习模型会根据你提供的数据执行,混乱的数据会导致性能下降甚至错误的结果,而干净的数据是良好模型性能的先决条件。当然干净的数据并不意味着一直都有好 阅读全文
posted @ 2022-03-28 11:02 deephub 阅读(874) 评论(0) 推荐(0)
摘要: 数据的归一化是数据预处理中重要的的一步,很多种方法都可以被称作数据的归一化,例如简单的去除小数位,而更高级归一化技术才能对我们训练有所帮助,例如 z-score 归一化。 所以本文总结了 7 种常见的数据标准化(归一化)的方法。 Decimal place normalization Data ty 阅读全文
posted @ 2022-03-27 10:05 deephub 阅读(561) 评论(0) 推荐(0)
摘要: Batch Augmentation(BA):提出使用不同的数据增强在同一批次中复制样本实例,通过批次内的增强在达到相同准确性的前提下减少了SGD 更新次数,还可以提高泛化能力。 Batch Augmentation (BA) 没有 BA 的普通SGD: 一个具有损失函数 ℓ (w, xn, yn) 阅读全文
posted @ 2022-03-26 10:23 deephub 阅读(77) 评论(0) 推荐(0)
上一页 1 ··· 137 138 139 140 141 142 143 144 145 ··· 155 下一页