OpenManus
配置OpenManus
- 推荐使用uv作为虚拟环境:
- 安装uv,打开powershell使用指令:
powershell -ExecutionPolicy ByPass -c "irm https://astral.sh/uv/install.ps1 | iex"安装 - clone OpenManus,在本地建立OpenManus-main的文件并将OpenManus放入其中;
- cd 到
.\OpenManus-main - 创建uv虚拟环境
uv venv --python 3.12 - 激活uv虚拟环境
.venv\Scripts\activate - 安装依赖,
uv pip install -r requirements.txt
- 安装uv,打开powershell使用指令:
- 配置LLM API:
- 在
config目录创建config.toml文件 - 编辑
config/config.toml添加API和key - 配置的两个模型,后面一个是视觉模型,可以和第一个一致,也可以不一致。
- 可以配置本地LLM或者公共的LLM
- 在
# Global LLM configuration
[llm]
model = "gpt-4o"
base_url = "https://api.openai.com/v1"
api_key = "sk-..." # Replace with your actual API key
max_tokens = 4096
temperature = 0.0
# Optional configuration for specific LLM models
[llm.vision]
model = "gpt-4o"
base_url = "https://api.openai.com/v1"
api_key = "sk-..." # Replace with your actual API key
- 在使用本地ollama的情况下:
- 通常在base_url之后会加
v1,是因为v1是当前API的版号,直接访问http://localhost:11434/v1是不会有回复的,如果想看到有效回复内容,可以改成http://loclahost:11434/v1/models或者http://loclahost:11434/v1/chat/completions; - 使用
http://localhost:11434可以直接测试Ollama服务器,它会返回一些Ollama的基本信息。 ollama list查看本地LLMollama ps查看正在运行的LLM- 本地运行大模型:
Ollama run <LLM name>
- 通常在base_url之后会加
- 使用deepseek开放平台也能连:

需买token,但是很便宜
启动OpenManus
- 一键启动
python main.py - 使用MCP工具版本
python run_mcp.py
关于MCP和Function call
- mcp定义了agent和LLM之间交换上下文信息的方式。它可以统一大模型和各种各样agent之间的交互方式。mcp自身集成了很多工具调用方法,由此实现了自动操作。mcp规定了mcp server如何和mcp client通信,以及mcp server的接口,tool,tool的调用方式等。
- Function call可以提供一个格式统一(JSON)的和LLM交互的函数,但是Function call也有麻烦的一面,因为它的针对性很强(适合单一功能的调用),而且是垂直调用,需要自己写很多代码。
- 练习LLM如何使用MCP。
- A2A,用于大模型和大模型之间的交互。

浙公网安备 33010602011771号