摘要: 看尚硅谷的视频,了解langchain和RAG架构和Agent架构 RAG(检索增强生成)架构 核心组件 from langchain_community.vectorstores import Chroma from langchain.embeddings import OpenAIEmbedd 阅读全文
posted @ 2026-02-06 23:47 臧博涛 阅读(1) 评论(0) 推荐(0)
摘要: 下载miniconda,然后使用pycharm导入,但是创建项目时候导入已有虚拟环境的时候有bug,系统不能检索已存在的环境,但是通过pycharm创建的能在项目里面切换。不知道啥bug 阅读全文
posted @ 2026-02-06 23:45 臧博涛 阅读(1) 评论(0) 推荐(0)
摘要: 大模型工作流程 第一阶段:训练 — 让模型“学习知识”—— 此阶段目标是让模型从数据中习得通用的语言规律和世界知识。 数据准备 来源:收集TB乃至PB级别的海量文本数据(网页、书籍、代码、对话等)。 清洗与预处理:去除噪声、重复、有害内容,进行分词(Tokenization,将文本拆分成模型能理解的 阅读全文
posted @ 2026-02-05 23:47 臧博涛 阅读(8) 评论(0) 推荐(0)
摘要: Transformer 架构的了解 、 Transformer 是一种完全基于自注意力机制的深度学习模型架构。它摒弃了传统的循环(RNN)和卷积(CNN)结构,通过并行计算全局依赖关系,在自然语言处理等领域取得了突破性成果。 自注意力机制:模型能够同时关注输入序列中的所有元素,并动态计算它们之间的关 阅读全文
posted @ 2026-02-05 23:44 臧博涛 阅读(3) 评论(0) 推荐(0)
摘要: AI应用场景 自然语言处理(NLP) 自然语言处理是目前最广泛的 AI 应用领域之一,依托大语言模型的能力,实现文本理解、生成、对话、信息提取等多种功能。 核心应用 应用方向 场景 说明 文本生成 内容创作、摘要撰写、对联、写稿 ChatGPT、AI写作 对话系统 智能客服、企业机器人、语音助手 客 阅读全文
posted @ 2026-02-03 23:53 臧博涛 阅读(7) 评论(0) 推荐(0)
摘要: 了解大数据基础 AI 发展历程与核心技术演进 一、AI 总体发展历程 阶段 时间 核心技术 主要特点 早期 AI(符号主义) 1950s–1980s 规则系统、专家系统 人工编写规则,逻辑推理能力强,通用性差 统计机器学习 1980s–2010s SVM、KNN、决策树、朴素贝叶斯 模型从数据中学习 阅读全文
posted @ 2026-02-03 23:53 臧博涛 阅读(11) 评论(0) 推荐(0)
摘要: 今天继续了解nlp的理论部分, 模块二:传统方法篇 - 从规则到统计 第一部分:语言处理流水线 想象你要教计算机读文章,首先要教它识字断句。 文本预处理是清洗和准备数据。包括:去掉HTML标签、特殊符号;分词——把句子切成单词或字(中文更复杂);去除停用词如“的”、“了”这些高频但信息少的词;词干还 阅读全文
posted @ 2026-01-21 23:47 臧博涛 阅读(8) 评论(0) 推荐(0)
摘要: 今天看了看关于nlp的相关内容,有些深奥看不懂 第一部分:数学与统计基础 这是NLP大厦的地基。你需要掌握: 线性代数是理解神经网络如何工作的钥匙。想象一下,每个词都被表示成一个数字向量,句子就是这些向量的组合。你需要理解向量、矩阵、张量这些概念,就像厨师要了解各种食材一样。重点学习矩阵乘法、特征值 阅读全文
posted @ 2026-01-21 23:47 臧博涛 阅读(7) 评论(0) 推荐(0)
摘要: 2: 计算机视觉基础 以下是代码的完整执行流程: 导入库​ → 导入PyTorch及相关工具库 定义CNN模型​ → 构建两层卷积+全连接的神经网络结构 数据准备​ → 下载MNIST数据集并进行标准化预处理 初始化​ → 创建模型、损失函数和优化器 训练循环(10个epoch): 训练阶段:前向传 阅读全文
posted @ 2026-01-19 23:50 臧博涛 阅读(6) 评论(0) 推荐(0)
摘要: 了解PyTorch,虽然啥也看不懂,但是这个东西也许有用 1: PyTorch基础 import torch import torch.nn as nn import torch.optim as optim # 1.1 张量基础 print("PyTorch版本:", torch.__versio 阅读全文
posted @ 2026-01-19 23:47 臧博涛 阅读(5) 评论(0) 推荐(0)