会员
众包
新闻
博问
闪存
赞助商
HarmonyOS
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
deephub
overfit深度学习
博客园
首页
新随笔
联系
订阅
管理
上一页
1
···
114
115
116
117
118
119
120
121
122
···
139
下一页
2022年6月11日
使用贝叶斯优化进行深度神经网络超参数优化
摘要: 在本文中,我们将深入研究超参数优化。 为了方便起见本文将使用 Tensorflow 中包含的 Fashion MNIST[1] 数据集。该数据集在训练集中包含 60,000 张灰度图像,在测试集中包含 10,000 张图像。每张图片代表属于 10 个类别之一的单品(“T 恤/上衣”、“裤子”、“套头
阅读全文
posted @ 2022-06-11 17:27 deephub
阅读(594)
评论(0)
推荐(0)
2022年6月10日
机器学习中训练和验证指标曲线图能告诉我们什么?
摘要: 我们在训练和验证模型时都会将训练指标保存成起来制作成图表,这样可以在结束后进行查看和分析,但是你真的了解这些指标的图表的含义吗? 在本文中将对训练和验证可能产生的情况进行总结并介绍这些图表到底能为我们提供什么样的信息。 让我们从一些简单的代码开始,以下代码建立了一个基本的训练流程框架。 场景 1 -
阅读全文
posted @ 2022-06-10 10:58 deephub
阅读(135)
评论(0)
推荐(0)
2022年6月9日
在不平衡数据上使用AUPRC替代ROC-AUC
摘要: ROC曲线和曲线下面积AUC被广泛用于评估二元分类器的性能。但是有时,基于精确召回曲线下面积 (AUPRC) 的测量来评估不平衡数据的分类却更为合适。 本文将详细比较这两种测量方法,并说明在AUPRC数据不平衡的情况下衡量性能时的优势 预备知识——计算曲线 我假设您熟悉准确率和召回率以及混淆矩阵的元
阅读全文
posted @ 2022-06-09 11:14 deephub
阅读(526)
评论(0)
推荐(0)
2022年6月8日
如何计算LSTM层中的参数数量
摘要: 长短期记忆网络(通常称为“ LSTM”)是一种特殊的RNN,经过精心设计LSTM能够学习长期的依赖。正如他的名字,它可以学习长期和短期的依赖。 每个LSTM层都有四个门: Forget gate Input gate New cell state gate Output gate 下面计算一个LST
阅读全文
posted @ 2022-06-08 10:45 deephub
阅读(138)
评论(0)
推荐(0)
2022年6月7日
卷积神经网络中的傅里叶变换:1024x1024 的傅里叶卷积
摘要: 卷积神经网络 (CNN) 得到了广泛的应用并且事实证明他是非常成功的。但是卷积的计算很低效,滑动窗口需要很多计算并且限制了过滤器的大小,通常在 [3,3] 到 [7,7] 之间的小核限制了感受野(最近才出现的大核卷积可以参考我们以前的文章),并且需要许多层来捕获输入张量的全局上下文(例如 2D 图像
阅读全文
posted @ 2022-06-07 13:26 deephub
阅读(371)
评论(0)
推荐(0)
2022年6月6日
JAX介绍和快速入门示例
摘要: JAX 是一个由 Google 开发的用于优化科学计算Python 库: 它可以被视为 GPU 和 TPU 上运行的NumPy , jax.numpy提供了与numpy非常相似API接口。 它与 NumPy API 非常相似,几乎任何可以用 numpy 完成的事情都可以用 jax.numpy 完成。
阅读全文
posted @ 2022-06-06 11:16 deephub
阅读(1884)
评论(0)
推荐(1)
2022年6月5日
14个面试中常见的概率问题
摘要: 在任何数据科学面试中,基本上都会问道一些有关概率的问题。 这些问题有的非常棘手(因为里面包含了一些复杂的数学概念),但是如果逆知道基本公式和概念那么就很容易了。所以在本文中我总结了一些相关的问题供大家参考。 本文假设读者知道基本的概率公式和概念。因为可能有许多不同的方法来解决相同的问题,所以本文提供
阅读全文
posted @ 2022-06-05 11:59 deephub
阅读(150)
评论(0)
推荐(0)
2022年6月4日
论文推荐:TResNet改进ResNet 实现高性能 GPU 专用架构并且效果优于 EfficientNet
摘要: TResNet: High Performance GPU-Dedicated Architecture 来自阿里的达摩院,发布于**2021 WACV,**该论文引入了一系列架构修改,旨在提高神经网络的准确性,同时保持其 GPU 训练和推理效率。 论文首先讨论了面向 FLOP 的优化引起的瓶颈。然
阅读全文
posted @ 2022-06-04 11:46 deephub
阅读(142)
评论(0)
推荐(0)
2022年6月3日
使用 Numpy 创建自己的深度学习框架
摘要: 本文并不是为了造轮子,只是通过手动实现来介绍建基本深度学习框架所需组件和步骤 Numpy 已经提供了基本上所有需要的计算操作,我们需要的是一个支持自动微分(autograd)的框架来计算多个操作的梯度,这是模块化方法构建神经网络层的标准化方法,通过自动微分的框架,我们可以将优化器、激活函数等组合在一
阅读全文
posted @ 2022-06-03 10:56 deephub
阅读(64)
评论(0)
推荐(0)
2022年6月2日
一个新的基于样本数量计算的的高斯 softmax 函数
摘要: softmax 函数在机器学习中无处不在:当远离分类边界时,它假设似然函数有一个修正的指数尾。 但是新数据可能不适合训练数据中使用的 z 值范围。如果出现新的数据点softmax将根据指数拟合确定其错误分类的概率;错误分类的机会并不能保证遵循其训练范围之外的指数(不仅如此——如果模型不够好,它只能将
阅读全文
posted @ 2022-06-02 11:10 deephub
阅读(41)
评论(0)
推荐(0)
上一页
1
···
114
115
116
117
118
119
120
121
122
···
139
下一页
公告