AI 产品的核心结构:Prompt、RAG、Workflow、Agent、Human-in-the-loop
High Contrast
Dark Mode
Light Mode
Sepia
Forest
5 min read1,086 words

AI 产品的核心结构:Prompt、RAG、Workflow、Agent、Human-in-the-loop

很多团队说自己在做 AI 产品,其实只是接了一个模型接口。真正能落地的 AI 产品,不是一个模型,而是一组能力结构。

对 PM 来说,理解这些结构不是为了写代码,而是为了做更准确的方案判断。

五个核心构件

graph LR A["Prompt"] --> B["RAG"] B --> C["Workflow"] C --> D["Agent"] D --> E["Human-in-the-loop"] style A fill:#e3f2fd,stroke:#1565c0,stroke-width:2px style E fill:#e8f5e9,stroke:#2e7d32,stroke-width:2px
构件 解决什么问题 什么时候需要
Prompt 让模型按预期输出 所有 LLM 应用都需要
RAG 让模型基于外部知识回答 知识会变、不能只靠模型记忆
Workflow 把多步骤任务串起来 任务有稳定流程和环节
Agent 动态规划步骤并调用工具 任务变化大、路径不固定
Human-in-the-loop 人工审核、接管、纠偏 错误成本高、风险大

PM 需要怎么理解 Prompt

Prompt 不是“写一段话给模型”,而是定义:

如果没有结构化输出要求,后续系统往往很难接。

PM 需要怎么理解 RAG

RAG 的价值不是“更高级”,而是让系统回答时能引用当前知识,而不是只依赖模型记忆。

典型适用场景:

Workflow 和 Agent 不要混为一谈

维度 Workflow Agent
流程路径 相对固定 动态选择
可控性 更高 相对更低
适合场景 标准流程任务 开放任务、探索任务
成本与复杂度 较低 较高

很多项目说做 Agent,其实做 Workflow 就够了。PM 如果分不清,容易把方案做重。

Human-in-the-loop 是现代 AI 产品的安全阀

def route_answer(confidence: float, risk_level: str) -> str:
if risk_level == "high":
return "人工审核"
if confidence < 0.75:
return "人工接管"
return "自动回复"
print(route_answer(0.82, "medium"))
print(route_answer(0.60, "medium"))
print(route_answer(0.91, "high"))

这类逻辑体现的是产品设计思想:AI 不一定每次都自己做完,关键是知道什么时候该交给人。

一个典型 AI 客服结构

  1. 用户发问
  2. 系统识别意图
  3. RAG 检索相关知识
  4. Prompt 组装上下文
  5. 模型生成回答
  6. 置信度与风险判断
  7. 自动回复或转人工
  8. 日志与反馈回收

这才是一个可运营的 AI 产品结构,而不是只有一个输入框。

完整流程图:AI 客服从提问到转人工

graph TD A["用户提问"] --> B["意图识别"] B --> C["RAG 检索知识"] C --> D["Prompt 组装上下文"] D --> E["模型生成回答"] E --> F{"置信度/风险判断"} F -->|通过| G["自动回复"] F -->|不通过| H["转人工"] G --> I["日志与反馈收集"] H --> I

课堂案例:一个团队到底该做 Workflow 还是 Agent

案例背景

某 SaaS 团队要做销售助手,需求包括:

教学拆解

这类需求看起来像 Agent,但第一版并不一定需要动态规划。
如果任务路径相对稳定,其实更适合:

课堂结论

很多“想做 Agent”的项目,第一阶段更适合做“可控的 Workflow + Copilot”。

练习题

  1. Prompt、RAG、Workflow、Agent 的区别分别是什么
  2. 为什么很多项目被“Agent”这个词带偏
  3. 哪类项目最需要 Human-in-the-loop

标准答案提示

本章 checklist

本章小结

下一节02-Prompt与RAG系统设计要点 — PM 视角下的 Prompt 工程原则与 RAG 知识库设计关键判断点。