在 C# 控制台应用中连接本地部署的 DeepSeek R1 1.5b 大模型
在 C# 控制台应用中连接本地部署的 DeepSeek R1 1.5b 大模型
概述
在 C# Console App中使用Microsoft.Extensions.AI.Ollama包连接本地大模型。
Ollama本地部署DeepSeek R1 1.5b 大模型
下载Ollama安装包
- 浏览器搜索
Ollama,进入以下Github网站:
- 进入发布版本页面
- 选择安装程序 OllamaSetup.exe
安装Ollama
- 双击安装包
- 进入安装页面后,单击"Install"
- 等待安装
- 安装完成后,打开命令行窗口,验证是否安装成功,输入:
ollama -v
显示版本号:
安装大模型
- 浏览器搜索
Ollama,进入以下任一网站:
- 打开(模型)Models页面
- 选择你想在本地部署的大模型,在这里,我们选择deepseek-r1
- 选择参数规模,在这里,我们选择1.5b(1.5亿参数)
- 将图中框选的内容在命令行窗口运行
ollama run deepseek-r1:1.5b
- 等待安装
在 C# 控制台应用中连接本地部署的 DeepSeek R1 1.5b 模型
创建控制台应用并安装Ollama包
- 新建C#控制台应用,使用.NET 9.0框架
- 在NuGet安装程序中搜索"Microsoft.Extensions.AI.Ollama"
注:到今天2025/2/7日,9.1.0-preview.1.25064.3为最新版本
编写代码连接模型
在Program.cs中添加以下代码并运行
using Microsoft.Extensions.AI;
namespace CodeAI;
public static class Program
{
public static async Task Main(string[] args)
{
IChatClient chatClient =
new OllamaChatClient(new Uri("http://localhost:11434/"), "deepseek-r1:1.5b");
// Start the conversation with context for the AI model
List<ChatMessage> chatHistory = new();
while (true)
{
// Get user prompt and add to chat history
Console.WriteLine("Your prompt:");
var userPrompt = Console.ReadLine();
chatHistory.Add(new ChatMessage(ChatRole.User, userPrompt));
// Stream the AI response and add to chat history
Console.WriteLine("AI Response:");
var response = "";
await foreach (var item in
chatClient.CompleteStreamingAsync(chatHistory))
{
Console.Write(item.Text);
response += item.Text;
}
chatHistory.Add(new ChatMessage(ChatRole.Assistant, response));
Console.WriteLine();
}
}
}
效果
文章引用
- 微软官方文档 - 使用 .NET 与本地 AI 模型聊天
https://learn.microsoft.com/zh-cn/dotnet/ai/quickstarts/quickstart-local-ai
文章声明
内容准确性: 我会尽力确保所分享信息的准确性和可靠性,但由于个人知识有限,难免会有疏漏或错误。如果您在阅读过程中发现任何问题,请不吝赐教,我将及时更正。
posted on 2025-02-07 15:33 wubing7755 阅读(1310) 评论(0) 收藏 举报
浙公网安备 33010602011771号