很多人抱怨大语言模型(LLM)“听不懂人话”,写出来的东西车轱辘话来回说,或者逻辑断层。其实问题往往不在模型本身,而在我们丢给它的指令太模糊。
这就好比你去餐厅点菜,只说“来份好吃的”,厨师只能猜。想要输出精准,得学会提示词工程 (Prompt Engineering) 的基本逻辑。这不是什么高深技术,而是沟通艺术。
别上来就直接问问题。先告诉 LLM 它是谁。
如果你需要一篇行业分析,不要只说“写一篇关于新能源汽车的文章”。试试这样设定:“你是一名拥有10年经验的汽车产业分析师,擅长从供应链和电池技术角度解读市场趋势。”
身份一旦确立,模型的用词风格、关注重点甚至思维深度都会随之调整。它会自动屏蔽掉那些泛泛而谈的科普内容,转而提供更具专业颗粒度的信息。这种预设,能省去后期大量修改语气的工作量。
人类处理复杂任务时知道分步走,但 LLM 有时会试图“一步到位”,结果就是逻辑混乱或遗漏细节。
面对复杂需求,明确列出执行步骤。比如你要让它整理一份会议纪要并提取待办事项,可以这样写:
清晰的步骤指引,比单纯的“请总结”有效得多。
这样做不仅降低了模型出错的概率,也让你更容易检查哪一步出了问题。如果第二步提取不准,你可以单独优化这一步的指令,而不必推翻重来。

这是最容易被忽视,却最有效的一招。与其花几百字描述你想要什么格式,不如直接给它看一个例子。
假设你需要从非结构化文本中提取姓名和电话,存为 JSON 格式。光说“提取信息转 JSON”很容易出错。不如加上:
DCCCODEBLOCK0_
看到示例后,大语言模型 (LLM) 会迅速模仿这个模式。这种“照猫画虎”的能力,是模型最强的天赋之一。在提示词工程中,这被称为 Few-Shot Prompting,能极大提升输出的稳定性。
写提示词本质上是在消除歧义。你越吝啬笔墨,模型就越容易自由发挥——而那种发挥,通常不是你想要的。多花一分钟把背景、步骤和示例写清楚,后面节省的是半小时的调试时间。
