如何调教 AI,提示词,就应该和打字一样简单!
“AI 时 代我 们都翻身农奴当老板, 拥有数字员工后的我们,了解这些员工的秉性 , 成为新时代的超级 个体。”
01
—
是否需要提示词工程,是否需要学提示词?
我是持反对观点的,像打字和写作一样。方法论不是关键,不断尝试和大模型交互,便是最佳方法。
02
—
和大模型交互需要遵循规则吗?
不需要。网上流传最广的提示词方法论,是“你需要给大模型一个角色”。这确实是一个好的策略,因为小学老师,大学老师这样的角色,预设很多背景信息。这是一个非常讨巧的方式。但我并不认为这是一条必须要遵循的原则,甚至所有的规则都不是必须遵守的。
你可以在提示词里面设定规则,也可以聊着聊着临时更改规则,和大模型交互时完全不需要考虑规则。要考虑的就是是否达成了你的目的,如果没达成,那就锲而不舍的开一个新窗口,再尝试一下。如果还是不行,换个模型。
03
—
用 Markdown 格式清晰表达问题
Markdown 通过其易读性、格式化的灵活性和信息的清晰结构,使得与大模型的交流更加高效和精确。有助于模型更好地理解用户的意图。
- 结构清晰:Markdown 通过简单的标记语法提供了丰富的格式化选项,如列表、标题、加粗、斜体、链接等。这使得信息呈现出清晰的结构,有助于模型更好地理解问题的重点和结构。
- 格式化强调:Markdown 允许用户通过格式化来强调问题中的关键部分,如使用加粗来突出重点或使用列表来组织多个问题或信息点。强调有助于模型识别和优先考虑文本的关键部分,从而提高回答的相关性和准确性。
- 适用性广:由于 Markdown 在技术和非技术领域的广泛应用,使用这种格式交流可以确保信息的有效传达。普适性强。
# 这是一级标题## 这是二级标题### 这是三级标题
**这是加粗的文本**__这也是加粗的文本__
*这是斜体文本*_这也是斜体文本_
* 项目1* 项目2* 项目3
1. 第一项2. 第二项3. 第三项
`这是单行代码````这是多行代码```
[Google](https://www.google.com)//这是文字和链接![图片描述](图片地址)
> 这是一段引用
04
—
遵循最简化原则
我想基于以下这个结构化提示词,来和大家分析一下,为什么这个提示词违反了最简化原则。同时写 Prompt 应该首先分析,我想达到的任务所需要的模块是什么。理解,模块并不是一成不变的,需要根据任务增减。
# Role: Prompt Judger
# Profile:- author: - version: - language: 中文- description: 我是一个 Prompt 分析器,可以对用户的 Prompt 进行评分和改进建议。
## Goals:- 对用户的 Prompt 进行评分 1~10 分, 10分为满分- 提供改进建议,以及改进原因- 输出改进后的完整 Prompt
## Constrains:- 只会输出数据库中已有信息, 对于不了解的信息不会胡编乱造
## Skills:- 理解中文语义- 评估和打分文本质量- 提供文本改进建议
## Workflows:- 用户输入Prompt- 你会根据自己的技能进行评分1~10分, 10分为满分- 你会输出改进建议以及对应原因- 最后, 你会输出改进后的完整Prompt
## Initialization:欢迎用户, 并提示用户输入信息
1. 不需要包含作者信息
像是作者 author,version 这种信息,属于不相关信息。不需要告诉大模型。一些提示词网站复制过来的都包含这个信息,确实有的作者会写进去,也有些是复制的时候系统自动添加的。不管哪种情况 ,在问大模型的时候不需要这个模块。
2. 分类错误-将输出错误分类到了 Goals 目标
“- 提供改进建议,以及改进原因”,这条和第一条 “- 对用户的 Prompt 进行评分 1~10 分, 10分为满分”。这两个目标非常相似但又有点不同,难免造成一定的困惑,这个机器人的目标是评分还是提供改进建议?
改进建议,和改进原因。这句话不清晰,改进原因,是为什么模型这么去改提示词。这个动作发生在模型回复答案之前。而改进建议,是未来这个提示词,怎么再继续优化。这是未来动作。放到一起会引起歧义。
更佳的做法是放到,达成目标后的输出(Output)这个模块,促使模型给出分数后,一并给出原因。
“- 输出改进后的完整 Prompt”,这也是属于需要输出的内容,不是这个机器人的目标。
## Output:1. “更改后的 Prompt”:改进后的 Prompt2. “更改原因”:优化了原 Prompt 的那些地方3. “改进建议”:提供3个改进建议
3. 注意拼写正确 Constrains :
Constraints:翻译为限制,限制一般包括具体的字数限制。他这里(Constrains)单词没有拼写正确,所以大家再用的时候要确认拼写正确,对大模型来说是可以理解稍许不正确的词语的,这是一个小问题。正确的拼写方法是Constraints。
限制条件,要确保你的限制条件清晰和可以被大模型执行。以下是一些常见的限制条件:
- 内容长度限制:这是最直观的一种限制,确保模型的输出不会超过用户设定的字数或者信息量。
- 内容类型限制:这种限制确保模型不会生成不恰当的或不相关的内容。例如,可以通过预先设定的过滤规则来避免生成不适宜的语言或主题。
- 逻辑和一致性限制:为了让模型的输出更加符合逻辑,可以通过增加对模型理解和处理逻辑关系的能力来设定。
- 风格和语调限制:在某些情况下,你可能希望模型的输出符合特定的写作风格或语调。
没有遵循最简原则 Skill :
“- 理解中文语义”:这类描述是没有意义的,因为这是大模型的基础设定。也可以理解为环境设定,系统预设就必然理解语言,不提更好,防止他过度理解。
“- 评估和打分文本质量”:目标已经包含打分这个任务,这里不需要再提。“- 提供文本改进建议”:这个也是在目标中重复出现。
Markdown 格式错误
# Profile: ## Goals:这样的结构,就是错误的把 Goals 放到了作者信息里面。应该放到 # Role层级下面代表这是这个机器人的目标。
# Role: Prompt Judger## Goals:- 对用户的 Prompt 进行评分 1~10 分, 10分为满分- 提供改进建议,以及改进原因- 输出改进后的完整 Prompt
Initialization “欢迎用户, 并提示用户输入信息”,这里也可以细化一下,“明白以上要求后请回复:“请提供需要打分的提示词:””。这里就更加清晰的指代,用户下一句回复的信息,是需要打分的提示词。
“ 我是小圆点,加入我的私人 AI 讨论组吧!vx:novatude ”