我看了一下Anthropic分享的Prompt101

其中有两个我觉得可以分享,强化一下使用:

第一个叫做预填充响应 (Pre-fill Response)

>做什么: 在API调用中,直接为模型的回答提供一个开头。

>为什么: 这是强制模型输出特定结构(尤其是JSON)的有效技巧。

>示例: 在API请求的“助手(assistant)”部分,直接填入一个左花括号 {,以引导模型续写一个完整的JSON对象。

这个预填充更容易引导模型按照你的输出模式进行响应,因为LLM是文字接龙

第二个是Prompt调试,利用“扩展思考”功能 (Extended Thinking / Scratchpad)

>作用: 这是一个强大的调试工具。开启此功能后,模型会显式地展示其“思考过程”或“草稿板”。

>如何使用: 通过分析模型的思考记录,你可以理解它在哪些环节遇到了困难或产生了误解。然后,你可以将这些洞察转化为更清晰的分步指令,固化到你的提示词中,从而使提示词本身变得更强大、更高效。

这个其实是23年宇龙分享过的一个思路,就是当提示词输出效果不符合预期时,需要与模型沟通,确认模型对提示词中的哪部分理解出现了语义偏差。

打印思考也是这种思路的一个变体。

以上是我学到的
 
 
Back to Top