什么情况适合用 AI,什么情况不要乱用 AI
High Contrast
Dark Mode
Light Mode
Sepia
Forest
6 min read1,148 words

什么情况适合用 AI,什么情况不要乱用 AI

不是所有问题都该用 AI。成熟 PM 的第一反应不该是“用哪个模型”,而应该是“这里真的需要 AI 吗”。

AI 最容易被误用在两类场景:

AI Fit Assessment 的基本判断

graph TD A["有问题要解决"] --> B{"规则是否清晰稳定"} B -->|是| C{"是否需要复杂语义理解"} B -->|否| D["优先评估 AI"] C -->|否| E["优先规则引擎/流程优化"] C -->|是| D D --> F{"错误是否可被兜底"} F -->|否| G["先做人机协作"] F -->|是| H["进入 AI 方案设计"]

适合 AI 的典型场景

场景 适合原因
语义理解 文本、语音、图像等非结构化输入多
知识问答 信息量大且更新频繁,需要检索与组织
内容生成 需要草稿、摘要、改写、提案等能力
辅助决策 需要给建议、给候选项,而非直接拍板

不适合直接上 AI 的典型场景

场景 更适合什么
固定规则审批 规则引擎、工作流
强合规且零容错 人工审核 + 系统校验
高风险自动决策 人机协作、分级处理
数据基础极差 先补数据与流程,不急着上模型

PM 至少要问的七个问题

  1. 当前问题是否需要复杂语义理解
  2. 规则系统是否已经足够解决 80% 问题
  3. 错误输出会造成什么后果
  4. 是否存在人工接管和回滚机制
  5. 数据或知识源是否足够支持 AI
  6. 推理成本、延迟和维护成本是否可接受
  7. 上线后是否有评估与纠错闭环

一个简化的 AI Fit 评分器

def ai_fit_score(
semantic_complexity: int,
data_readiness: int,
error_tolerance: int,
business_value: int,
fallback_ready: int,
) -> int:
return (
semantic_complexity * 3
+ data_readiness * 2
+ error_tolerance * 2
+ business_value * 3
+ fallback_ready * 2
)
score = ai_fit_score(
semantic_complexity=5,
data_readiness=4,
error_tolerance=3,
business_value=5,
fallback_ready=4,
)
print("AI 适配得分:", score)

这个分数不是为了做数学,而是为了逼团队把“为什么这里适合 AI”说清楚。

常见误区

误区 表现 风险
为了显得先进而用 AI “竞品有,我们也要有” 价值不清,成本高
把 AI 当万能胶水 哪里乱就往哪里贴 问题没解决,复杂度上升
只看 Demo 效果 忽略异常和长尾 上线后质量失控

案例演练:退货政策问答

如果退货政策逻辑稳定、条文明确,而且用户提问大多是固定问题,那么优先方案可能是:

也就是说,AI 不是第一步,而可能是第二步。

课堂案例:什么时候该用 RAG,什么时候只用规则

案例背景

某平台想做退货政策问答。团队内部出现两派意见:

教学拆解

PM 应该先判断:

  1. 退货政策是否稳定、条款是否清晰
  2. 用户问法是否高度多样,需要语义理解
  3. 回答错误的代价是否很高
  4. 是否必须给出可追溯依据

如果政策结构清晰、错误代价高,那么更合理的路径通常是:

规则化 FAQ + 检索增强 + 必要的 AI 重写

而不是把全部判断直接丢给模型。

练习题

  1. 为什么“能用 AI”不等于“该用 AI”
  2. 哪三类场景最不适合直接上 AI
  3. Human-in-the-loop 在 AI Fit 判断里为什么重要

标准答案提示

本章 checklist

本章小结

下一节02-AI-Fit-Assessment实战框架 — 用评分矩阵系统地评估任意场景是否适合引入 AI,以及适合哪种 AI 方式。