上一页 1 2 3 4 5 6 7 8 9 10 ··· 48 下一页
摘要: 引言 Odoo 是一款强大的开源企业资源规划(ERP)与客户关系管理(CRM)系统,其核心竞争力之一在于高度模块化的架构设计。模块系统不仅是 Odoo 框架的基石,更是实现功能灵活扩展与定制的关键。本文将结合 Odoo 18 的源码,系统梳理模块系统的核心组件与工作机制,帮助开发者深入理解 Odoo 阅读全文
posted @ 2025-05-29 15:44 何双新 阅读(248) 评论(0) 推荐(0)
摘要: 1. Odoo 18 base 模块结构总览 下表为 base 模块主要目录与文件说明: 目录/文件 说明 __manifest__.py 模块描述信息,定义依赖、数据加载、初始化行为等 __init__.py 模块初始化入口,导入 models、controllers 等 models/ 所有 P 阅读全文
posted @ 2025-05-29 09:16 何双新 阅读(271) 评论(0) 推荐(0)
摘要: 了解 Odoo 在从启动到用户打开一个模型表单视图时,内部到底发生了什么,是模块开发、性能调优和故障排查的关键。本文将为你系统梳理 Odoo 18 的执行流程与关键方法调用链,适用于开发者与技术架构师快速理解 Odoo 核心机制。 一、核心概念速查表 概念 说明 Action Odoo 前端与后端交 阅读全文
posted @ 2025-05-28 23:43 何双新 阅读(533) 评论(0) 推荐(0)
摘要: 简介 极简版的 Transformer 编码器-解码器(Seq2Seq)结构,适合用于学习、实验和小型序列到序列(如翻译、摘要)任务。 该实现包含了位置编码、多层编码器、多层解码器、训练与推理流程,代码简洁易懂,便于理解 Transformer 的基本原理。 主要结构 PositionalEncod 阅读全文
posted @ 2025-05-22 10:55 何双新 阅读(155) 评论(0) 推荐(0)
摘要: 自己搭建一个 Tiny Decoder(带 Mask),参考 Transformer Encoder 的结构,并添加 Masked Multi-Head Self-Attention,它是 Decoder 的核心特征之一。 1. 背景与动机 Transformer 架构已成为自然语言处理(NLP)领 阅读全文
posted @ 2025-05-21 23:47 何双新 阅读(77) 评论(0) 推荐(0)
摘要: Tiny Encoder Transformer:极简文本分类与注意力可视化实战 项目简介 本项目实现了一个极简版的 Transformer Encoder 文本分类器,并通过 Streamlit 提供了交互式可视化界面。用户可以输入任意文本,实时查看模型的分类结果及注意力权重热力图,直观理解 Tr 阅读全文
posted @ 2025-05-21 23:19 何双新 阅读(279) 评论(0) 推荐(0)
摘要: Scaled Dot-Product Attention是Transformer架构的核心组件,也是现代深度学习中最重要的注意力机制之一。本文将从原理、实现和应用三个方面深入剖析这一机制。 1. 基本原理 Scaled Dot-Product Attention的本质是一种加权求和机制,通过计算查询 阅读全文
posted @ 2025-05-17 23:22 何双新 阅读(847) 评论(0) 推荐(0)
摘要: 🤔 为什么要有 Multi-Head Attention? 单个 Attention 机制虽然可以捕捉句子中不同词之间的关系,但它只能关注一种角度或模式。 Multi-Head 的作用是: 多个头 = 多个视角同时观察序列的不同关系。 例如: 一个头可能专注主语和动词的关系; 另一个头可能专注宾语 阅读全文
posted @ 2025-05-17 23:06 何双新 阅读(721) 评论(0) 推荐(0)
摘要: 深度神经网络的训练稳定性和表达能力是现代人工智能模型(尤其是 Transformer 架构)成功的关键。残差连接(Residual Connection)和层归一化(Layer Normalization)作为两项核心技术,极大地推动了深层网络的可训练性和泛化能力。本文系统梳理这两项技术的原理、结构 阅读全文
posted @ 2025-05-12 09:50 何双新 阅读(924) 评论(0) 推荐(0)
摘要: 全面拆解 Transformer 架构:Encoder、Decoder 内部模块解析(附流程图小测验) 关键词:Transformer、Encoder、Decoder、Self-Attention、Masked Attention、位置编码、残差连接、多头注意力机制 Transformer 自 20 阅读全文
posted @ 2025-05-12 08:30 何双新 阅读(665) 评论(0) 推荐(0)
上一页 1 2 3 4 5 6 7 8 9 10 ··· 48 下一页