AI大模型应用:embedding,openai,Ollama
AI大模型应用:
一.chat类模型:
接收文本输入,返回文本输出
接收图片输入,返回优化后的图片
二.embedding类模型:RAG应用文本向量转换
将文本映射为高维向量,用于语义搜索和知识库问答
三.openai接口
token:不同模型分词器不同,导致token数量有差异
感知环境,做出决策,采取行动
四.大模型平台定价对比
腾讯混元提供总共 100 万的免费额度,其定价模式和具体费用需参考官方价格列表。
火山方舟每个模型提供 50 万免费额度,注册还送代金券,可抵扣费用,性价比高。
阿里云百炼每个模型提供 100 万免费额度,其定价模式和具体费用需参考官方价格列表。
百度云千帆每个模型提供 50 万免费额度,其定价模式和具体费用需参考官方价格列表。
DeepSeek 是开源大模型,除了官方提供 API 服务外,各大云平台也部署了该模型并提供 API 服务,用户有更多选择。
五.Python 调用示例
环境搭建:使用 UV 作为 Python 包和项目管理工具,安装 Python 虚拟环境和依赖,提升开发效率。
OpenAI SDK 使用:OpenAI SDK 成为事实标准,被广泛接受,降低用户迁移门槛,复用成熟工具,快速进入生态系统。
平台 SDK 特点:火山方舟等平台 SDK 完全兼容 OpenAI SDK,同时提供平台特有的 API,扩展功能,方便开发者使用
六 .NET 调用示例
1.即使没有官方 SDK,也可以通过 RESTful API 规范调用大模型,使用 API 调试工具生成调用代码
2.AI 扩展库是 .NET 中标准化 AI 服务调用的工具库,适合快速集成 LLM 能力,提供非流式和流式请求示例。
3.Semantic Kernel 框架是微软推出的轻量级 SDK,支持 C# 和 Python,可与业务逻辑结合,打造云原生 AI 应用。
七.本地部署大模型优势
1.本地部署减少网络延迟,提升交互效率,如工业设计中调整三维模型参数,响应时间可降至 50 毫秒以内
2.本地部署数据在本地服务器流动,不外泄,适合医疗、金融等敏感行业,保护数据安全。
3.现代显卡性能提升,消费级产品也能运行量化后的大型语言模型,降低部署成本。
八.Ollama 本地部署工具
1.Ollama 的作用:Ollama 是开源框架,专注于本地运行大模型,提供模型管理、资源调度、性能优化等功能,简化部署流程。
2.部署流程:官网下载安装 Ollama,找到合适模型,使用命令部署,终端窗口试用,通过 .NET 调用,安装相关包并修改客户端注册代码。

浙公网安备 33010602011771号