会员
众包
新闻
博问
闪存
赞助商
HarmonyOS
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
deephub
overfit深度学习
博客园
首页
新随笔
联系
订阅
管理
上一页
1
···
14
15
16
17
18
19
20
21
22
···
139
下一页
2025年5月10日
PyTorch量化感知训练技术:模型压缩与高精度边缘部署实践
摘要: 在神经网络研究的前沿,我们正面临着模型精度与运行效率之间的权衡挑战。尽管架构优化、层融合和模型编译等技术已取得显著进展,但这些方法往往不足以同时满足边缘设备部署所需的模型尺寸和精度要求。 研究人员通常采用三种主要策略来实现模型压缩同时保持准确性: 模型量化:通过降低模型权重的数值精度表示(例如将16
阅读全文
posted @ 2025-05-10 10:04 deephub
阅读(34)
评论(0)
推荐(0)
2025年5月9日
ChronosX: 可使用外生变量的时间序列预测基础模型
摘要: 时间序列基础模型在单变量预测基准评估中已展现出显著性能。但是在现实应用场景中,外部信息常常是时序决策过程中不可或缺的关键要素。 为基础模型添加协变量支持面临诸多技术挑战。核心问题在于:如何构建一个预训练模型,使其能够适应未曾见过的数据中出现的新相关性模式?这在初步考量时似乎是不可实现的。 现有模型采
阅读全文
posted @ 2025-05-09 10:15 deephub
阅读(51)
评论(0)
推荐(0)
2025年5月8日
PyTorchVideo实战:从零开始构建高效视频分类模型
摘要: 视频理解作为机器学习的核心领域,为动作识别、视频摘要和监控等应用提供了技术基础。本教程将详细介绍如何利用PyTorchVideo和PyTorch Lightning两个强大框架,构建基于Kinetics数据集训练的3D ResNet模型,实现高效的视频分类流程。 PyTorchVideo与PyTor
阅读全文
posted @ 2025-05-08 10:12 deephub
阅读(35)
评论(0)
推荐(0)
2025年5月6日
在AMD GPU上部署AI大模型:从ROCm环境搭建到Ollama本地推理实战指南
摘要: 在人工智能和机器学习领域,NVIDIA 公司凭借其 CUDA 计算生态系统和高性能 GPU 架构,已成为大型语言模型(LLM)训练与推理的主导力量。从基础实验到前沿研究,NVIDIA 的技术方案几乎成为了行业标准。作为其主要竞争对手,AMD(YES!)在 AI 计算领域的发展潜力值得关注。 AMD
阅读全文
posted @ 2025-05-06 09:50 deephub
阅读(134)
评论(0)
推荐(0)
2025年5月5日
防止交叉验证中的数据泄露:提升模型在实际环境中的性能
摘要: 你刚刚完成了一个机器学习模型的训练,其验证准确率达到了95%。交叉验证结果显示性能稳定,项目相关方对此表示认可,正准备将模型部署到生产环境。但是现实情况却令人沮丧——在实际应用环境中,这个"高性能"模型的准确率仅达到约60%。问题究竟出在哪里? 这种现象的主要原因通常是数据泄露(Data Leaka
阅读全文
posted @ 2025-05-05 10:26 deephub
阅读(36)
评论(0)
推荐(0)
2025年5月1日
Perforated Backpropagation:神经网络优化的创新技术及PyTorch使用指南
摘要: 近年来,深度学习在从大型语言模型(LLM)到机器人技术再到医疗人工智能的众多领域展现出了显著成效。随着研究资源的持续投入,这一领域通过架构创新、更大规模的数据集和先进硬件而不断发展。然而,深度学习的基础构建模块——人工神经元,自1943年首次数学表述以来几乎保持不变。同样,其基础算法——基于梯度下降
阅读全文
posted @ 2025-05-01 11:48 deephub
阅读(19)
评论(0)
推荐(0)
2025年4月30日
加速LLM大模型推理,KV缓存技术详解与PyTorch实现
摘要: 随着大型语言模型(LLM)规模和复杂度的指数级增长,推理效率已成为人工智能领域亟待解决的关键挑战。当前,GPT-4、Claude 3和Llama 3等大模型虽然表现出强大的理解与生成能力,但其自回归解码过程中的计算冗余问题依然显著制约着实际应用场景中的响应速度和资源利用效率。 键值(KV)缓存技术作
阅读全文
posted @ 2025-04-30 10:12 deephub
阅读(76)
评论(0)
推荐(0)
2025年4月29日
零训练成本优化LLM: 11种LLM权重合并策略原理与MergeKit实战配置
摘要: 随着大语言模型的快速发展,如何在不消耗大量计算资源的情况下优化模型性能成为业界关注焦点。模型权重合并技术提供了一种零训练成本的高效解决方案,能够智能整合多个专业微调模型的优势,无需额外训练即可显著提升性能表现。本文系统剖析11种前沿权重合并策略的理论基础与数学原理,从简单的线性插值到复杂的几何映射方
阅读全文
posted @ 2025-04-29 11:14 deephub
阅读(29)
评论(0)
推荐(0)
2025年4月28日
NoProp:无需反向传播,基于去噪原理的非全局梯度传播神经网络训练,可大幅降低内存消耗
摘要: 反向传播算法自四十年前问世以来一直作为深度学习的基石,然而仍然面临两项关键技术挑战:首先由于必须存储中间激活值用于梯度计算,导致内存消耗显著;其次其本质上的顺序计算特性严重限制了模型在分布式多GPU环境下的并行扩展能力。近期牛津大学、Mila研究所与Google DeepMind的研究团队联合提出了
阅读全文
posted @ 2025-04-28 10:05 deephub
阅读(56)
评论(0)
推荐(0)
2025年4月27日
GenPRM:思维链+代码验证,通过生成式推理的过程奖励让大模型推理准确率显著提升
摘要: 过程奖励模型(PRMs)作为验证机制在提升大型语言模型(LLMs)性能方面展现出显著潜力。而当前PRMs框架面临三个核心技术挑战:过程监督和泛化能力受限、未充分利用LLM生成能力而仅依赖标量值预测,以及在测试时计算无法有效扩展。 针对上述局限,这篇论文提出了GenPRM,一种创新性的生成式过程奖励模
阅读全文
posted @ 2025-04-27 10:21 deephub
阅读(35)
评论(0)
推荐(0)
上一页
1
···
14
15
16
17
18
19
20
21
22
···
139
下一页
公告