在课程中,李宏毅老师讲到不训练模型也能强化语言模型(精读和准度)的方法,第一点就是使用“神奇咒语”,通过多加一句指令,让模型得到的结果大不同。如下图中,使用GPT早期的版本,通过添加右侧框中的咒语,比直接使用效果好很多。
不一定适用于所有模型、所有版本
更有意思的是,对AI进行情绪勒索同样会起到一定作用。
接下来李老师提到一篇文章:Principled Instructions Are All You Need for Questioning LLaMA-1/2, GPT-3.5/4 (原则性指导是你询问LLaMA-1/2、GPT-3.5/4所需的一切),文末点击阅读原文可跳转。
在本研究中,作者引入了26个原则性指导原则,目的是提高提示的质量、清晰度和简洁性,从而使LLM能够提供更好的响应。
论文系统地探讨了如何应用这些原则来实现从LLM获得更准确、更相关响应的目标,强调了提示工程作为与生成模型互动的关键方面的重要性。通过在不同模型规模(从小到大)上进行广泛的实验,作者展示了这些原则性指导原则的应用可以显著提高响应质量——当应用于GPT-4时,平均质量和准确性分别提高了 57.7% 和 36.4% ,随着模型大小的增加,改进效果更加显著。
根据领域将26个原则进行分类,如下:
当然,类似的“神奇咒语”还有很多,我们可以使用另一个语言模型来找到目的语言模型的咒语,并进行评估。
快去试试吧!