OpenManus

配置OpenManus

  • 推荐使用uv作为虚拟环境:
    • 安装uv,打开powershell使用指令:powershell -ExecutionPolicy ByPass -c "irm https://astral.sh/uv/install.ps1 | iex"安装
    • clone OpenManus,在本地建立OpenManus-main的文件并将OpenManus放入其中;
    • cd 到 .\OpenManus-main
    • 创建uv虚拟环境uv venv --python 3.12
    • 激活uv虚拟环境.venv\Scripts\activate
    • 安装依赖,uv pip install -r requirements.txt
  • 配置LLM API:
    • config目录创建config.toml文件
    • 编辑config/config.toml添加API和key
    • 配置的两个模型,后面一个是视觉模型,可以和第一个一致,也可以不一致。
    • 可以配置本地LLM或者公共的LLM
# Global LLM configuration
[llm]
model = "gpt-4o"
base_url = "https://api.openai.com/v1"
api_key = "sk-..."  # Replace with your actual API key
max_tokens = 4096
temperature = 0.0

# Optional configuration for specific LLM models
[llm.vision]
model = "gpt-4o"
base_url = "https://api.openai.com/v1"
api_key = "sk-..."  # Replace with your actual API key
  • 在使用本地ollama的情况下:
    • 通常在base_url之后会加v1,是因为v1是当前API的版号,直接访问http://localhost:11434/v1是不会有回复的,如果想看到有效回复内容,可以改成http://loclahost:11434/v1/models或者http://loclahost:11434/v1/chat/completions;
    • 使用http://localhost:11434可以直接测试Ollama服务器,它会返回一些Ollama的基本信息。
    • ollama list查看本地LLM
    • ollama ps查看正在运行的LLM
    • 本地运行大模型: Ollama run <LLM name>
  • 使用deepseek开放平台也能连:

需买token,但是很便宜

启动OpenManus

  • 一键启动python main.py
  • 使用MCP工具版本python run_mcp.py

关于MCP和Function call

  • mcp定义了agent和LLM之间交换上下文信息的方式。它可以统一大模型和各种各样agent之间的交互方式。mcp自身集成了很多工具调用方法,由此实现了自动操作。mcp规定了mcp server如何和mcp client通信,以及mcp server的接口,tool,tool的调用方式等。
  • Function call可以提供一个格式统一(JSON)的和LLM交互的函数,但是Function call也有麻烦的一面,因为它的针对性很强(适合单一功能的调用),而且是垂直调用,需要自己写很多代码。
  • 练习LLM如何使用MCP
  • A2A,用于大模型和大模型之间的交互。
posted @ 2025-05-23 17:15  你要去码头整点薯条吗  阅读(100)  评论(0)    收藏  举报