大模型应用开发--[笔记未完待续]

大模型应用开发

初识大模型

  • 认识AI
  • 大模型应用
    • 部署大模型(ollama部署模型),掌握阿里云百炼平台使用
    • 调用大模型,使用http方式调用大模型
    • 大模型应用,与传统应用的区别
    • 技术方案
  • SpringAI
    • 基本使用
    • 阻塞调用和流式调用大模型
    • 会话记忆和会话历史问题
    • 多模态、RAG、向量数据库、Prompt Engineer

认识AI

发展阶段

  • 规则符号 -> 机器学习 -> 深度学习

  • image

  • 机器学习: 基于数据,统计和优化方法训练模型。包括监督学习、无监督学习、强化学习等

  • 深度学习:模仿人脑结构和功能使用多层神经元网络处理复杂任务,如卷积神经网络

    • 其中自然语言处理(NLP)有一个关键技术叫做Transformer,由多层感知机组成的神经网络模型
  • 大模型(LLM)底层都是采用Transformer神经网络模型。如GPT(Generative生成式、Pre-trained预训练、Transformer)

  • image

大模型原理

  • Transformer是由Google在2017年提出的一种神经网络模型,一开始的作用是把它作为机器翻译的核心,底层使用的是注意力机制

    • voice-to-text 音频生成文本,或者文本生成音频
    • text-to-image 文本生成图片
    • image
  • 而大语言模型LLM对于Transformer是另一种用法推力预测

    • 首先是P(Pre-trained),使用大量数据对模型进行预训练

    • 然后是T,使用Transformer对输入的一些文本、音频、图片信息尝试进行推理接下来的内容,以概率发布形式出现

    • image

    • 最后是G(Generative),持续生成;根据前文推测出接下来的词语后,拼接到前文,再次给大模型处理,推测下一个字,不断重复前面过程,最后生成大段内容(这就是为什么我们跟AI聊天的时候,它生成的内容总是一个字一个字的输出的原因了。)

    +image

模型部署

方案对比

  • 大模型应用开发是通过访问模型对外暴露的API接口,实现大模型的交互

使用开发的大模型API

  • 优点:没有部署和维护成本,按调用收费
  • 缺点:依赖第三方,稳定性差;长期使用成本高;数据有隐私和安全问题(存储在第三方)

云部署

  • 优点:前期投入成本低,部署和维护方便,网络延迟低
  • 缺点:数据在第三方,有隐私和安全问题;长期使用成本高

本地部署

  • 优点:数据完全自主掌控,安全性高;不依赖外部环境;长期来看成本会更低
  • 缺点:初期部署成本高;维护成本高

云服务

  • 上线阿里的百炼平台就送百万token哇!各种模型任你选择
  • image
  • image
  • 但是首先得获取API Key作为鉴权凭证(相当于密钥),平时我们访问的free AI基本用的是官方的api key,所以相当于免费嘛。

获取API-KEY

  • 到密钥管理中,点击创建API-KEY即可
    image
  • 接着任意选择一个模型进行交流
  • image

本地部署

  • 本地部署一般是在自己的服务器上部署,但这里以本地电脑进行部署为例,由于电脑配置远远无法支持大模型配置要求,届时部署下来的也是阉割版的。

  • 本地部署一种方案就是ollama,官方地址:https://ollama.com

  • 访问后点击下载,我这里是Windows版本(Linux可以直接通过指令下载)

  • image

  • 下载期间我们可以看一下ollama左上角的Models,可以看到各种模型,随便点击一个模型进入详情页,可以看到各种版本和大小,以及运行的指令,学过docker的同学一个很熟悉这些指令的语法,是的,跟docker类似。

    • 这里的b是billion,10亿的意思,故1.5b就是15亿,表示模型支持的参数数量,可以通过参数对模型进行微调。参数越多,模型推力分析能力越强。所以671b就是deepseek的满血版。
    • 我们的电脑部署得看显存,比如显存为6g,那1.5b,1.7b和1.8b都可以部署,以此类推。(通过ctrl+shift+esc打开任务管理器,点击性能,找到GPU 即可看到显存)
  • image

  • image

  • 下载后默认是安装在C盘的,若不想装在C盘,则需要用指令安装,我这里用指令安装到D盘。

    • 在OllamaSetup.exe所在目录打开cmd命令行,然后命令如下:

      OllamaSetup.exe /DIR=你要安装的目录位置
      image

  • 安装后,退出客户端(quit ollama),然后配置环境变量,设置ollama模型的存储路径

  • image

  • image

  • 完成后可以在浏览器访问 http://localhost:11434/,显示ollama正在运行

  • image

  • 也可以通过cmd输入 ollama --version验证是否安装成功

  • image

  • 配置后再ollama.exe的所在位置打开cmd

  • image

  • 接下来运行模型

    • 选择适合自己的模型即可,ollama会给出运行的命令
    • image
  • 这样就可以使用啦

  • image

  • 可以通过命令ollama --help查看命令的使用,跟docker语法还是挺像的

  • image

  • 关于开机自启

    • 访问一下路径,删除对应的Ollama.Ink文件
    • C:\Users\xxx\AppData\Roaming\Microsoft\Windows\Start Menu\Programs\Startup
      image
posted @ 2025-10-28 15:52  YI羊  阅读(7)  评论(0)    收藏  举报