附录工具包:模板、判断表与上线清单
High Contrast
Dark Mode
Light Mode
Sepia
Forest
4 min read893 words

附录工具包:模板、判断表与上线清单

这一页不是概念说明,而是给你在真实项目里直接复用的工具骨架。你可以把它们当成开项目、切 MVP、做上线准备时的标准模板。

AI Product Delivery Loop

graph TD A["Discover
发现问题"] --> B["Define
定义目标"] B --> C["Break Down
拆解场景"] C --> D["AI Fit
判断 AI 适配"] D --> E["Solution Design
设计方案"] E --> F["Scope MVP
定义 MVP"] F --> G["Prototype & Validate
原型验证"] G --> H["Delivery Planning
交付准备"] H --> I["Launch & Monitor
上线监控"] I --> J["Iterate
持续优化"]

工具 1:问题陈述模板

项目 填写方式
用户角色 谁遇到问题
场景 在什么流程中发生
当前做法 今天怎么解决
主要痛点 慢、贵、错、乱,分别体现在哪里
影响范围 多少人、多高频、多大损失
非目标 这次明确不解决什么

示例句式:

[用户角色][场景] 中,需要通过 [当前做法] 完成任务,但因为 [痛点] 导致 [损失]。现有方法不足以稳定支撑,因此需要设计新的解决方案。”

工具 2:AI Fit 判断表

判断维度
任务规则清晰度 固定规则即可 规则 + 少量判断 高度语义理解
容错要求 几乎不能错 可容忍小错 可接受概率型输出
知识变化频率 很少变化 周期更新 高频变化,需要检索
可解释性要求 必须强可解释 部分可解释 可接受黑盒结果
数据可得性 几乎没有 有部分数据 数据与反馈闭环完整

结论规则:

工具 3:MVP 范围表

级别 定义 例子
P0 不做就无法验证核心价值 FAQ 检索、回答日志、人工转接
P1 能明显提升体验,但第一版可延后 个性化推荐、多轮记忆
P2 未来增强项 自动学习、复杂 Agent 编排

切 MVP 时,问自己三个问题:

  1. 如果只保留最关键能力,用户还能完成核心任务吗?
  2. 如果这个能力效果不稳定,是否有人工兜底?
  3. 上线两周内,我们能清楚判断它有无价值吗?

工具 4:PRD 最小骨架

模块 内容
背景 当前问题、业务背景、已有替代方案
目标 业务目标、用户目标、非目标
用户与场景 主要角色、关键任务、异常场景
方案概述 产品流程、AI 能力、人工介入点
范围 P0/P1/P2、明确不做
验收 成功指标、验收标准、上线门槛
风险 幻觉、权限、隐私、合规、成本

工具 5:上线检查清单

launch_checklist = {
"产品": ["目标明确", "用户路径清晰", "异常流程定义完成"],
"AI": ["Prompt 版本确认", "知识源可追踪", "高风险问题可拒答"],
"工程": ["日志可查", "监控可看", "回滚方案可执行"],
"运营": ["反馈入口准备好", "人工接管流程明确", "FAQ 更新机制就绪"],
"合规": ["权限校验通过", "敏感数据处理确认", "审计记录开启"],
}
for area, items in launch_checklist.items():
print(f"\n[{area}]")
for item in items:
print(f"- {item}")

工具 6:复盘问题清单

维度 复盘问题
价值 这次版本真的改善了哪个结果
使用 用户在哪一步放弃或转人工
质量 主要错误类型是什么
成本 Token、人工、维护成本是否可接受
节奏 哪个协作环节最拖慢交付
下一步 应继续优化、扩大,还是停止投入

本章小结

返回目录:AI时代产品经理实战手册