目的。
同一个项目,在多AI模型使用的情况下,对知识进行统一记忆,存成一份,可以供多个AI模型同时使用。
1. 前期环境
mcp-memory-service 已经在本地运行,oauth鉴权关闭状态。
Claude code 的mcp已连接。
.claude.json. 全局配置
"mcpServers": {
"mcp-memory-service": {
"type": "http",
"url": "http://127.0.0.1:8888/mcp"
}
}
2. 使用codex 连接 mcp-memory
1. codex cli 直接配置
[mcp_servers.mcp-memory]
url ="http://127.0.0.1:8888/mcp"
- http模式下,会主动调用 oauth的鉴权,由于,mcp-memory已经禁用了oauth,所以失败。
- 同时,查找了大量资料,无法关闭oauth鉴权。无法绕过该问题。
2. 使用deepwiki,查询方案。
在最新代码中,Codex 通过 mcp-proxy 桥接工具来使用 MCP 服务器,因为 Codex 本身不支持 HTTP 传输协议。 1
Codex 配置方式
1. 安装 mcp-proxy
pipx install mcp-proxy # 或者: uv tool install mcp-proxy
2. 更新 Codex MCP 配置
Codex 的 MCP 配置文件需要使用以下格式: 2
[mcp_servers.mcp-memory]
command = "mcp-proxy"
args = ["http://127.0.0.1:8888/mcp","--transport=streamablehttp"]
工作原理
Codex 使用 stdio 传输协议,通过 mcp-proxy 将 stdio 调用转换为 Streamable HTTP 请求,从而与远程 MCP Memory Service 通信。
vscode 中的codex 也可以使用。
总结
- 使用了gemini,chatgpt,grok,都没有完美的解决问题,尝试了很多方法,消耗了大量时间。
- 源码中文档的说明也有可能比较旧,代码未必拿来就能用,还得结合codex的官方文档。

浙公网安备 33010602011771号