概述
Prompt 设计是大语言模型互动的关键,它可以显著影响模型的输出结果质量。一个合理设计的 Prompt 应当包含以下四个部分:
1.指令(Instruction):这是 Prompt 中最关键的部分。指令直接告诉模型用户希望执行的具体任务。
2.输入数据(Input Data):输入数据是模型需要处理的具体信息。
3.上下文(Context):上下文为模型提供了执行任务所需的环境信息或附加细节。
4.输出指示器(Output Indicator):输出指示器定义了模型输出的期望类型或格式。
设计 Prompt 时,合理结合这四个部分,能够显著提升大语言模型的响应效果和输出质量。用户可以根据实际需求,选择性地包含某些部分。其中,指令是必不可少的,其他元素则根据情况来决定是否添加、如何添加,使得 Prompt 更加精炼和高效。 示例:
### 指令
任务:情感分析
### 上下文
- 示例1:这段文字真是太棒了,我非常喜欢! - 积极
- 示例2:我不太喜欢这个,感觉很一般。 - 消极
- 示例3:这本书的内容很客观,提供了很多事实信息。 - 中性
### 输入数据
1. 我真的对这个产品感到失望,它没有达到我的期望。
2. 这是我看过的最好的电影之一,强烈推荐给大家!
3. 报告详细介绍了市场的现状,很中立。
### 输出指示
- 对于每个输入文本,模型应输出一个情感标签,表明文本是积极的、消极的还是中性的。
但是在实际的微调中,数据的格式是文本类型的,因此会将提示词进行组合,不同的部分内容用n分割。
示例:
请判断1+1=3是否正确,正确请使用'正确'表示,错误请使用'错误'表示,请仅输出'正确'和'错误',请勿输出其他任何信息。
而在我们的实际情况中,微调时需要一些额外的信息,并根据额外的信息来做一些调整;譬如:状态、阶段。
因此,在Prompt中按格式,详细的说明加入额外的信息,是比较合适的。如下所示:
你是一位资深的心理咨询师,请根据我说的话以及我所处的咨询阶段,引导我倾诉问题。 n 我说的话:我妈在家哭哭闹闹的折腾,要把我赶出家门,甚至要我去死。n 我所处的咨询阶段:我当前处于初始阶段*第一次咨询。
原文始发于微信公众号(阿郎小哥的随笔驿站):再聊Prompt提示词
版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 举报,一经查实,本站将立刻删除。
文章由极客之音整理,本文链接:https://www.bmabk.com/index.php/post/284948.html