智能销售助手-langfuse评测策略

下面我按“SaaS 产品级评测”而不是“模型 Demo 级评测”的视角,给你一个可落地、可在 Langfuse 中直接实施的评测框架,专门匹配你这个跨境卖家 AI 销售机器人 + 多智能体架构的场景。


一、你这个产品的评测目标先明确一句话

不是评测某个模型好不好,而是评测:

“在真实私聊场景下,这套多 Agent 系统是否能稳定、正确地把用户往成交方向推进。”

因此评测一定是分层的,而不是只做一次“整体准确率”。


二、评测拆 4 层(这是关键)

Layer 0:业务结果层(产品级 KPI)【最重要】

这是最终裁判层,所有 Agent 指标都要能回溯到这里。

指标 含义 Langfuse 实现
Lead Conversion Rate 私聊 → 留资 / 下单 Trace + Business Event
AOV Lift 客单价提升 外部订单系统回写
Qualified Lead Rate 有效询盘比例 人工标注 / 规则
Human Handoff Rate 转人工比例(越低越好但不能为 0) Handoff Agent 统计
Time-to-First-Useful-Answer 首次有效回复耗时 Trace 时间差

结论
👉 这是你最终对老板 / 投资人 / 客户汇报的数据
👉 Langfuse 只是“收集 + 归因”,不是唯一来源


Layer 1:Coordinator / Router 层评测(最容易出事故)

你这个架构里,Coordinator = 成败关键点

必须关注的指标

指标 说明
Routing Accuracy 是否选对 Agent
Over-routing Rate 本可单 Agent 却走 Orchestrator
Under-routing Rate 复杂问题却走单 Agent
Recovery Rate 路由错误后是否被纠正
Latency Impact 路由带来的额外延迟

Langfuse 怎么做

  • 每一次 Coordinator 决策:

    • input: user message
    • output: chosen agent(s)
    • metadata: decision_reason / confidence
  • 离线评测

    • 人工标注「理想路由」
    • 对比实际路由 → confusion matrix

这一步你问的“Router 误判分析”,就应该落在这一层


Layer 2:Agent 能力层评测(单 Agent 的“专业度”)

这里不是统一一个指标,而是按 Agent 类型拆


1️⃣ RAGAgent(知识问答)

指标 含义
Answer Correctness 答案是否正确
Groundedness 是否基于知识库
Hallucination Rate 编造内容比例
Retrieval Recall@k 是否取到正确文档
Citation Coverage 回答中是否用到召回文档

Langfuse 实现方式:

  • Document → Span
  • RAG Eval Template(Correctness / Faithfulness)

2️⃣ ReactAgent(实时查询 / 工具)

指标 含义
Tool Selection Accuracy 是否选对工具
Tool Param Validity 参数是否正确
Tool Retry Rate 工具失败重试
Tool-to-Answer Latency 工具耗时
Answer Actionability 输出是否可执行

重点不是“回答好不好”,而是:

“是否正确调用了正确的系统”


3️⃣ WorkflowAgent(销售流程)

这是你产品差异化核心,必须单独评。

指标 含义
Step Accuracy 是否走对销售阶段
Premature Pitch Rate 过早推销
Missed Upsell Rate 错失加购机会
Flow Completion Rate 流程是否完整走完
User Drop-off Position 用户在哪一步流失

这层评测直接影响 AOV / 转化率


Layer 3:系统协作层(多 Agent 是否“协同而不是内耗”)

这是单 Agent 测不出来的。

指标 含义
Parallel Efficiency 并行是否节省时间
Redundant Work Rate Agent 是否重复劳动
Conflict Rate 输出是否互相冲突
Merge Quality Orchestrator 合并质量
Token Efficiency 多 Agent token 浪费

Langfuse:

  • 多 Span 并行
  • Trace Timeline 可视化
  • Token Usage 聚合

三、你问的核心问题:评测怎么做才“正确”

❌ 错误做法(很多团队会踩)

  • 只评一个 Overall Accuracy
  • 只评 RAG
  • 只用 LLM-as-a-judge
  • 不区分 Router vs Agent

✅ 正确做法(推荐你采用)

1️⃣ 每个 Agent 单独一层评测(能力边界)

目的:

  • 知道是 Agent 能力问题
  • 还是 路由 / 编排问题

否则你会永远在调 prompt,但其实是 Coordinator 错了


2️⃣ 关键路径做“端到端评测”

例如:

  • 询价 → 推荐 → 异议 → Upsell → 转人工

指标:

  • 成功完成率
  • 时间
  • 中途流失点

Langfuse:

  • Trace 级别打 tag:scenario=price_inquiry

3️⃣ 失败样本反向驱动

这是最有价值的部分:

流程:

  1. 从 Langfuse 中筛选:

    • Handoff
    • 用户重复追问
    • 超时
  2. 回溯:

    • Router 是否选错
    • Agent 是否能力不足
    • Workflow 是否过于激进
  3. 分类打标签:

    • router_error
    • rag_missing_knowledge
    • workflow_bad_timing

这是你未来做 Agent SFT / Router Finetune 的数据来源。


四、给你一个一句话总结(你可以直接在方案里用)

AI 销售机器人的评测不能只看模型准确率,而必须分为:

  • 路由决策是否正确
  • 单 Agent 是否在其职责边界内高质量执行
  • 多 Agent 协作是否高效
  • 最终是否带来真实业务转化

五、如果你愿意,下一步我可以帮你做的事

  • 给你一份 Langfuse Trace / Span 设计模板(字段级)
  • 帮你设计 Router 混淆矩阵
  • 直接给你一套 AI Sales Agent Eval Rubric(可交给标注团队)
  • 或帮你回答:“这个 SaaS 在海外合规 / Meta API / WhatsApp 风控点”

你可以直接告诉我你现在卡在哪一层

posted @ 2025-12-20 23:01  向着朝阳  阅读(2)  评论(0)    收藏  举报