上一页 1 2 3 4 5 6 7 8 ··· 24 下一页
摘要: #coding:utf8import torchimport torch.nn as nnimport numpy as npimport copy"""基于pytorch的网络编写手动实现梯度计算和反向传播加入激活函数"""class TorchModel(nn.Module): def __in 阅读全文
posted @ 2025-06-25 22:31 m516606428 阅读(39) 评论(0) 推荐(0)
摘要: 处理 100T 级别的大数据仓库,需从 架构优化、数据分层、计算引擎、资源调度、查询优化 五个维度系统性加速,以下是具体策略: 一、架构层:分而治之,避免单点压力 1. 数据分区与分桶 按时间 / 业务维度分区:如按日期(dt=20250625)或业务线(biz=电商)分区,查询时直接过滤无关分区, 阅读全文
posted @ 2025-06-25 14:48 m516606428 阅读(57) 评论(0) 推荐(0)
摘要: FAISS(Facebook AI Similarity Search)查询速度快的核心原因在于其高效的向量相似度搜索算法和针对大规模向量优化的工程实现,结合以下几个关键点理解: 一、核心加速原理:量化(Quantization)与索引结构 1. 向量量化(Vector Quantization) 阅读全文
posted @ 2025-06-25 14:48 m516606428 阅读(104) 评论(0) 推荐(0)
摘要: Dify 是一个基于大语言模型的应用开发平台,可帮助开发者快速构建和部署 AI 应用,无需复杂的底层编码。以下是其官网及核心功能介绍: 官网地址 https://dify.ai/(支持中文界面,国内可访问) Dify 的核心功能 低代码构建 AI 应用 无需编写大量代码,通过可视化界面连接数据源、设 阅读全文
posted @ 2025-06-24 20:53 m516606428 阅读(712) 评论(0) 推荐(0)
摘要: 你的思考非常有价值!在神经网络中,确实可以通过设计更复杂的非线性变换来替代标准的线性层 + 激活函数组合。不过,目前深度学习主流框架(如 PyTorch/TensorFlow)默认采用wx+b这种线性变换,主要有以下几方面原因: 一、数学本质:线性变换是基础操作 线性变换的优势: 参数效率:一个n× 阅读全文
posted @ 2025-06-24 01:26 m516606428 阅读(51) 评论(0) 推荐(0)
摘要: 在实际业务场景中,当问题本身具有复杂的非线性规律或需要逐层抽象特征时,多个线性层与非线性激活函数连续交替使用能显著提升模型效果。以下结合具体场景和案例展开说明: 一、计算机视觉(CNN 场景:图像分类 / 目标检测) 业务场景:自动驾驶中的交通标志识别 问题特性:交通标志的形状、颜色、图案具有多层次 阅读全文
posted @ 2025-06-24 01:18 m516606428 阅读(27) 评论(0) 推荐(0)
摘要: 不是的,隐藏层的本质特性是非线性,这是通过激活函数实现的。如果隐藏层仅包含线性变换(如全连接层),则多层网络的表达能力等同于单层网络。具体分析如下: 一、关键概念澄清 1. 线性层(如 nn.Linear) 数学形式:\(y = Wx + b\),其中W是权重矩阵,b是偏置向量 特性:无论堆叠多少线 阅读全文
posted @ 2025-06-24 01:15 m516606428 阅读(33) 评论(0) 推荐(0)
摘要: 当然可以增加更多层!深度学习的强大之处就在于能够通过堆叠多层网络(即 "深度")来学习更复杂、更抽象的模式。以下是几种扩展方案及其原理: 一、增加更多隐藏层(例如 5→8→8→1) python 运行 class TorchModel(nn.Module): def __init__(self, i 阅读全文
posted @ 2025-06-24 01:12 m516606428 阅读(58) 评论(0) 推荐(0)
摘要: ReLU 和 Sigmoid 都属于激活函数,但它们的作用和应用场景有很大区别,这也是为什么在这个模型中会同时使用它们: 1. 激活函数的核心作用 神经网络中的线性层(如nn.Linear)本质上只是加权求和,多层线性层堆叠仍然等价于单层线性层(因为线性变换的复合还是线性变换)。激活函数的加入引入了 阅读全文
posted @ 2025-06-24 01:11 m516606428 阅读(218) 评论(0) 推荐(0)
摘要: 在神经网络中,改变层的维度(如从 5 到 8 再到 1)主要有以下意义: 1. 特征提取与组合 第一层(5→8):将 5 维输入扩展到 8 维,相当于从原始输入中提取更多的 "隐藏特征"。例如: 原输入的 5 个维度可能存在冗余或相关性,通过线性变换(加权求和)可以组合成更有意义的 8 个特征。 对 阅读全文
posted @ 2025-06-24 01:10 m516606428 阅读(40) 评论(0) 推荐(0)
上一页 1 2 3 4 5 6 7 8 ··· 24 下一页