第一节:langchain调用本地ollama

 

1. 安装Ollama
在Mac上安装Ollama有两种方式,推荐使用Homebrew方式:
使用Homebrew安装(推荐)
如果您还没有安装Homebrew,先安装Homebrew:

/bin/bash -c "$(curl -fsSL https://raw.githubusercontent.com/Homebrew/install/HEAD/install.sh)"

然后使用brew安装Ollama:

brew install ollama

启动Ollama服务
安装完成后,启动Ollama服务:

brew services start ollama

2. 下载并运行Llama3.2模型
下载Llama3.2模型
Ollama支持多种版本的Llama模型。要下载Llama3.2,可以使用以下命令:

# 下载默认版本的Llama3.2(通常是3b版本)
ollama pull llama3.2

# 或者指定具体版本
ollama pull llama3.2:3b

# 如果需要更大参数版本(需要更多内存)
ollama pull llama3.2:7b

运行Llama3.2模型
下载完成后,可以通过以下方式与模型交互:

# 运行Llama3.2模型
ollama run llama3.2

# 或者指定具体版本
ollama run llama3.2:3b

安装golangchian 包

go get github.com/tmc/langchaingo

 

使用golangchian 

func getLLmOpenaiClient(t *testing.T) *ollama.LLM {
    llm, err := ollama.New(
        ollama.WithModel("llama3.2"), // 指定使用的模型
    )
    if err != nil {
        log.Fatal(err)
    }

    return llm
}

func TestOllama(t *testing.T) {
        //    创建一个 LLM 模型对象
    llm := getLLmOpenaiClient(t)

    prompt, err := llms.GenerateFromSinglePrompt(context.Background(), llm, "帮我写首绝句!关于go语言的")
    if err != nil {
        log.Fatal(err)
    }
    t.Log(prompt)

}

 

图片

 

posted @ 2025-09-17 16:09  phpwyl  阅读(36)  评论(0)    收藏  举报