使用 LLM + MCP 在过早客论坛冲浪🏄‍♀️

使用 LLM + MCP 在过早客论坛冲浪🏄‍♀️

想法

作为一名开发者,我经常需要了解过早客论坛的讨论动态,但每次都要手动浏览很麻烦。能不能让AI助手直接帮我获取和分析论坛内容呢?

例如,问 AI:

今天过早客最热的话题是什么?

AI 答:

今天讨论最热烈的话题是【武汉地铁票价调整】,共有128条回复。
主要观点分为三类:
1. 觉得涨价合理(运营成本压力)
2. 强烈反对(影响日常出行)
3. 建议差异化票价

是不是比自己一页页刷省事多了?

于是我开发了 guozaoke-mcp-server —— 首个专门用于过早客论坛的MCP服务器。现在,你可以直接问LLM:"请帮我看看过早客论坛今天的热门话题",它就能实时获取并分析论坛内容。

实际效果

example1

example2

什么是MCP

Model Context Protocol (MCP) 是 Anthropic 提出的一个标准协议(基于 JSON RPC),作用是让LLM能标准化地访问外部数据。

本文场景下,传统方式 vs MCP方式:

传统:用户 → 浏览器 → 论坛网站 → 人工分析
MCP:用户 → LLM → MCP服务器 → 论坛网站 → 智能分析

guozaoke-mcp-server核心功能:两个Tools

1. 话题列表获取

// 用户问:"过早客最新有什么话题?"
// AI调用:fetch-guozaoke-topic-list
// 返回:结构化的话题数据

支持分页浏览,解析HTML转为JSON格式,方便AI理解和处理。

2. 话题详情获取

// 用户问:"帮我看看第3个话题的详细讨论"
// AI调用:fetch-guozaoke-topic-details
// 返回:完整的帖子内容和所有回复

支持检测登录状态,支持Cookie认证访问需要权限的内容。

快速开始

{
  "mcpServers": {
    "guozaoke-mcp-server": {
      "type": "stdio",
      "command": "npx",
      "args": [
        "-y",
        "guozaoke-mcp-server"
      ],
      "env": {
        "GUOZAOKE_COOKIE": "..."
      }
    }
  }
}

项目地址:GitHub | NPM

posted @ 2025-08-27 17:00  赵康  阅读(257)  评论(3)    收藏  举报