摘要:
算法岗位和 NLP 岗位在工作内容上有以下一些差别: 算法岗位 通用算法研发与应用: 负责设计、开发和优化各种通用的机器学习、深度学习算法,如决策树、支持向量机、神经网络等,以解决各类预测、分类、聚类等问题。例如,在图像识别中,可能会使用卷积神经网络来识别图片中的物体类别;在推荐系统中,利用矩阵分解 阅读全文
posted @ 2025-06-18 19:31
m516606428
阅读(28)
评论(0)
推荐(0)
摘要:
用 i9-13900HX 搭配不同显卡训练大模型,差异主要看 显存容量、显卡算力,结合 CPU 共同影响训练效率,下面分两种对比场景详细说: 一、i9-13900HX + 4070(8G 显存) vs i9-13900HX + 5070Ti(假设常规 8G 显存,若实际是新出的 12G 显存,后面单 阅读全文
posted @ 2025-06-18 17:44
m516606428
阅读(678)
评论(0)
推荐(0)
摘要:
用 4070 显卡(8G 显存)训练大模型时,i9-13900HX 和 9 代 i5(比如 i5-9xxx 系列 )的差异 非常大 ,主要体现在这几方面: 1. 核心性能:i9-13900HX 碾压 9 代 i5 i9-13900HX : 核心数多:有 24 个核心(8 个性能核 + 16 个能效核 阅读全文
posted @ 2025-06-18 17:41
m516606428
阅读(147)
评论(0)
推荐(0)
摘要:
张图是关于 大语言模型(LLM)在 Int8 量化 下,不同参数规模模型所需显存、推荐 GPU 及参考模型的对应关系,帮你快速判断硬件能不能跑对应模型,大白话拆解如下: 核心信息:“模型参数规模 - 显存 - GPU - 参考模型” 对照表 每行对应一类模型,关键看 4 列: 模型(int8) :模 阅读全文
posted @ 2025-06-18 17:38
m516606428
阅读(176)
评论(0)
推荐(0)
摘要:
笔记本的 RTX 4070 训练模型的大小,得看显存、模型精度(像 BF16、FP16 这些)、优化手段,还有模型结构,给你白话拆解下: 1. 看显存基础能力(以常见 8G 显存的笔记本 4070 为例 ) 纯推理(跑别人练好的模型,做预测等) : 用量化、优化框架(比如 vLLM )的话,8G 显 阅读全文
posted @ 2025-06-18 17:35
m516606428
阅读(410)
评论(0)
推荐(0)
摘要:
nn.Linear(1, 1) 是 PyTorch 中最基础的线性层,表示输入维度为 1、输出维度也为 1,对应数学公式 y = wx + b。如果想实现更复杂的函数(如包含 x²、e^x、log(x) 等非线性项),需要手动组合线性层和激活函数。 一、理解 nn.Linear 的局限性 nn.Li 阅读全文
posted @ 2025-06-18 01:45
m516606428
阅读(233)
评论(0)
推荐(0)
摘要:
是的,在最简单的线性模型 y = wx + b 中,参数确实只有两个:权重 w 和偏置 b。这是深度学习中最基础的参数概念示例。我们可以通过 PyTorch 代码来验证这一点: python 运行 import torch import torch.nn as nn # 定义一个最简单的线性模型 c 阅读全文
posted @ 2025-06-18 01:43
m516606428
阅读(30)
评论(0)
推荐(0)
摘要:
在深度学习大模型的语境中,“671b 的大模型参数” 与 “671B 向量” 是两个完全不同的概念,二者在定义、物理意义和体现方式上存在显著差异。以下是具体解析: 一、核心概念区分:参数≠向量 1. 大模型参数(Parameters)的本质 定义:参数是模型中可学习的权重(Weight)和偏置(Bi 阅读全文
posted @ 2025-06-18 01:42
m516606428
阅读(85)
评论(0)
推荐(0)
摘要:
import torchimport torch.nn as nnimport torch.optim as optimfrom torch.cuda.amp import autocast, GradScalerimport timeimport numpy as npimport os# 设置随 阅读全文
posted @ 2025-06-18 01:40
m516606428
阅读(13)
评论(0)
推荐(0)
摘要:
import torchimport torch.nn as nnimport torch.optim as optimfrom torch.cuda.amp import autocast, GradScalerimport timeimport numpy as npimport os# 设置随 阅读全文
posted @ 2025-06-18 01:38
m516606428
阅读(333)
评论(0)
推荐(0)
摘要:
自注意力机制、Transformer 和 "Attention is All You Need" 大白话讲解 一、什么是注意力机制?—— 先理解人类的 “关注点” 比如你看一句话:“我今天去超市买了苹果和香蕉”。当你理解这句话时,大脑不会逐字扫描,而是会 “关注” 关键信息: 看到 “买了” 时,会 阅读全文
posted @ 2025-06-18 01:21
m516606428
阅读(94)
评论(0)
推荐(0)
摘要:
在 Python 中实现语音转文字(STT, Speech-to-Text)主要有两种方式:调用第三方 API(简单、准确,但可能有费用或限制)和本地部署模型(免费、隐私安全,但需要配置资源)。以下是具体实现方法: 一、使用第三方 API(以 OpenAI Whisper API 为例) 优点:准确 阅读全文
posted @ 2025-06-18 01:13
m516606428
阅读(310)
评论(0)
推荐(0)
摘要:
大模型训练调优,就是让预训练好的大模型(像 GPT、BERT 这些),通过一系列操作变得更适配特定任务或领域,大白话拆解关键要点: 一、核心步骤(给模型 “定制改造” 流程) 选任务与数据:先明确要让模型干啥,是分类、生成文案还是问答,接着准备对应高质量标注数据(几百到几千样本起步),还得把数据格式 阅读全文
posted @ 2025-06-18 01:11
m516606428
阅读(210)
评论(0)
推荐(0)
摘要:
这仨概念看着玄乎,用大白话拆成生活场景,秒懂它们咋给 AI “升级” : 一、微调(Fine - Tuning)—— 给 AI 上 “定制私教课” 场景类比:你请了个全科家教(大模型),但你想冲刺数学竞赛。于是把 “竞赛真题、解题技巧” 整理成资料,让家教针对性学这些,学完后教你数学竞赛题更厉害。 阅读全文
posted @ 2025-06-18 01:06
m516606428
阅读(79)
评论(0)
推荐(0)
摘要:
能否语音输入输出 prompt 能实现语音输入输出,需结合语音识别(ASR)、大模型推理、语音合成(TTS) 技术流程。 本地实现思路 语音转文本(ASR):用开源工具(如 PaddleSpeech、Whisper ),把麦克风采集的语音转成文字 prompt。 大模型推理:调用本地部署的大模型(如 阅读全文
posted @ 2025-06-18 00:55
m516606428
阅读(27)
评论(0)
推荐(0)
摘要:
RAG(检索增强生成,Retrieval - Augmented Generation )本质不只是把 PDF 等信息切片成 context 输入大模型,它是先对 PDF 等文档进行拆分、向量化等处理构建检索库,当有请求时,从库中检索相关片段(context ),再结合大模型生成回答,核心是用外部知 阅读全文
posted @ 2025-06-18 00:54
m516606428
阅读(8)
评论(0)
推荐(0)
摘要:
用大白话来说,Function Call(函数调用)就是让大模型像 “工具人” 一样,遇到搞不定的事儿,自动喊外援、借外力解决问题 ,核心解决 “大模型自身能力不够,得靠外部工具补” 的痛点。给你拆几个生活 + 工作场景,秒懂它的作用: 一、生活场景类比:旅行规划 假设你想 “规划一趟 3 天的成都 阅读全文
posted @ 2025-06-18 00:48
m516606428
阅读(51)
评论(0)
推荐(0)
摘要:
以下以 ** 写一封「诗意辞职信」** 为例,用提示工程方法拆解创作,你可参考思路,替换成公众号、知乎回答等其他题材: 一、明确目标与需求 先清晰写作方向: 类型:辞职信,需正式又有文艺感 核心诉求:礼貌告别,传递离职决心,保留职场体面 风格:用诗意化表达(比喻、意象),让文字有温度 二、构建提示词 阅读全文
posted @ 2025-06-18 00:08
m516606428
阅读(21)
评论(0)
推荐(0)

浙公网安备 33010602011771号