摘要:
我们来系统地梳理一下激活函数在神经网络中的作用。 核心作用:引入非线性 这是激活函数最根本、最重要的作用。 没有激活函数的神经网络是什么样的? 假设你有一个多层神经网络,但所有层都是线性的(即没有激活函数)。那么,无论你堆叠多少层,整个网络的最终输出都只是输入的一个线性组合。 例如: 第一层:out 阅读全文
posted @ 2025-11-12 16:46
姚春辉
阅读(15)
评论(0)
推荐(0)
摘要:
将大模型与企业内部知识结合,构建适合本企业的“小模型”或增强型应用,核心目标是让通用大模型具备企业专属的知识、语言风格和业务逻辑,同时避免从零训练大模型的高成本和高门槛。以下是具体实现路径和关键步骤: 一、核心实现思路:两种主流路径 根据企业需求(成本、实时性、定制深度),主要分为“模型微调”和“检 阅读全文
posted @ 2025-11-12 15:09
姚春辉
阅读(15)
评论(0)
推荐(0)
摘要:
“基础模型 + 场景微调”是目前性价比最高、最主流的企业级AI落地方式。它的核心思想是:站在巨人的肩膀上,不重复造轮子。 下面我将为你详细拆解这个过程,并结合一个具体的例子来说明。 核心概念解析 基础模型 (Foundation Model) 是什么? 这是指像 GPT-4、Llama 3、文心一言 阅读全文
posted @ 2025-11-12 15:09
姚春辉
阅读(21)
评论(0)
推荐(0)
摘要:
卷积神经网络(CNN)的典型核心流程是“数据输入→特征提取→特征整合→预测输出”,分层围绕该流程展开,核心层包括输入层、卷积层、池化层、全连接层、输出层,部分场景会补充辅助层,整体结构清晰且各司其职。 一、典型核心流程(从数据到预测) 原始数据输入:通过输入层接收规范后的原始数据(如图像、序列)。 阅读全文
posted @ 2025-11-12 11:05
姚春辉
阅读(34)
评论(0)
推荐(0)
摘要:
全连接层本身不固定属于输入层、输出层或隐藏层,它是一种“层的连接结构”,可作为隐藏层或输出层,输入层通常不称为全连接层。 核心定义 全连接层(Fully Connected Layer)的核心是“层内每个神经元与前一层所有神经元完全连接”,连接方式是关键,而非层在网络中的位置。 不同位置的应用 作为 阅读全文
posted @ 2025-11-12 10:58
姚春辉
阅读(11)
评论(0)
推荐(0)
摘要:
卷积层的核心定位是隐藏层,仅特殊场景下可作为输出层的一部分,绝对不属于输入层。 核心结论 卷积层是深度学习(尤其CNN)中负责特征提取的核心层,本质是“带有局部连接、权值共享特性的计算层”,其功能和设计逻辑决定了它的主要角色是隐藏层。 不同位置的角色划分 作为隐藏层:这是最核心、最常见的用途。卷积层 阅读全文
posted @ 2025-11-12 10:50
姚春辉
阅读(7)
评论(0)
推荐(0)
摘要:
这个问题问到了神经网络的核心设计逻辑!神经元设置偏置(bias)的核心作用是调整模型的“激活门槛”,让模型能更灵活地拟合数据规律。 核心结论 偏置是神经元的“偏移量”,用于控制激活函数被触发的难易程度,本质是为了让模型摆脱“必须通过原点”的限制,提升拟合能力。 关键理由 解决“零输入必零输出”的局限 阅读全文
posted @ 2025-11-12 10:37
姚春辉
阅读(18)
评论(0)
推荐(0)

浙公网安备 33010602011771号