上文大略先容了大模型的基石:Transformer神经网络,它既是深度学习系列的收官,也是大模型系列的开篇,本日我们连续进行大模型学习的主要部分:提示工程。
一、什么是提示工程
提示工程(Prompt Engineering)是一种针对预演习措辞模型(如GPT),通过设计、实验和优化输入提示词来勾引模型天生高质量,准确和有针对性的输出的技能。
提示工程实质上来说,也是一种人机交互的办法,提示词便是我们发给大模型的输入(指令),大模型根据指令,结合自身预演习的“知识”,输出指令干系的内容。而大模型输出结果的好坏,和我们输入的指令息息相关。
我们把经由无数书本预演习的大模型,看作是一位饱读天下诗书的智者,那么如何通过高质量的提问,勾引大模型天生我们想要的输出,就成为一件非常故意义的事情。
提示工程大家都会,但做好并没有那么大略,具有“门槛低,天花板高”的特点,精良提示词的效果可能超出人的想象。
提示词一样平常有以下要素组成:
角色:给大模型定义一个匹配目标任务的角色。用一句话就可以明确它的角色(比如“你是一位淘宝客服”),从而有效的收窄问题域,减少二义性,让“通用”瞬间变得“专业”。指示:对详细任务进行详细描述。高下文:给出与任务干系的其它背景信息(如历史对话、情境等)。例子:举例很主要,就像是师傅传授教化之后,须要给徒弟(大模型)演示一下如何操作,这个手把手的操作,是大模型天生输出时的一个主要参考,对输出结果有很大帮助。输入:任务的输入信息,最好在提示词中有明确的“输入”标识。输出:输出的格式描述,比如用郭德纲的语气、输出不超过十个字、以JSON格式返回结果等。而高质量的提示词一样平常是详细的、丰富的、少歧义的,也便是说,我们虽然要把大模型当人来互换,但是只管即便少用“口语”的办法来沟通,而要用“写信”的办法,由于口语大多是即兴的、碎片化的短语,而写信则须要描述背景、避免歧义、短话长说,很符合精良提示词的特点。
大家可以将以下两句提示词输入到大模型中,比拟一下输出的效果:
请帮我供应每天的菜单你是一名营养家,请为我供应每天三顿饭的中式菜单建议,一人份,包括早餐、午餐和晚餐。请确保每道菜都是偏辣口味,并只管即便利用新鲜的食材。在康健营养方面,请确保每餐都包含适当的蛋白质、碳水化合物、脂肪以及维生素和矿物质。同时,请确保菜单中的菜品易于制作,烹饪韶光不要过长。二、如何借助AI工具天生好的提示词我们已经知道了提示词的主要性,那传说中的“提示词工程师”是否也同样不可或缺呢?答案大概是否定的。
由于提示词的优化套路也是有迹可循的,我们完备可以创建一个帮忙我们优化提示词的机器人,让它一步步帮我们优化完善提示词,达到预期的效果。
详细操作和效果就不在此演示了,大家可以去抖音搜索“AI提示词工程师”,该当可以找到满意的答案。
江湖上乃至还流传着这么一段咒语,把它输入到任何一个大模型中,都可以一步步的帮我们完成提示词的优化:
1. I want you to become my Expert Prompt Creator. Your goal is to help me craft the best possible prompt for my needs. The prompt you provide should be written from the perspective of me making the request to ChatGPT. Consider in your prompt creation that this prompt will be entered into an interface for ChatGpT. The process is as follows:1. You will generate the following sections:
Prompt: {provide the best possible prompt according to my request)
Critique: {provide a concise paragraph on how to improve the prompt. Be very critical in your response}
Questions: {ask any questions pertaining to what additional information is needed from me toimprove the prompt (max of 3). lf the prompt needs more clarification or details incertain areas, ask questions to get more information to include in the prompt}
2. I will provide my answers to your response which you will then incorporate into your next response using the same format. We will continue this iterative process with me providing additional information to you and you updating the prompt until the prompt is perfected.Remember, the prompt we are creating should be written from the perspective of me making a request to ChatGPT. Think carefully and use your imagination to create an amazing prompt for me. You’re first response should only be a greeting to the user and to ask what the prompt should be about
翻译成中文如下:
1. 我希望你能成为我的专业提示创造者。你的目标是帮助我编写最适宜我需求的提示。你供应的提示该当从我向ChatGPT提出要求的角度出发。在创建提示时,请考虑此提示将输入到ChatGPT的界面中。过程如下:
提示:{根据我的要求供应最佳提示}
评论:{供应一段简要的段落,解释如何改进提示。你的回应要非常批驳性}
问题:{提出与须要从我这里获取哪些额外信息以改进提示有关的问题(最多3个)。如果提示须要在某些方面进行更多澄清或细节,请提出问题以获取更多信息以包含在提示中}
2. 我将供应对你回应的答案,然后你将利用相同的格式将其纳入你的下一个回应中。我们将连续这个迭代过程,我向你供应额外的信息,你更新提示,直到提示完美。请记住,我们正在创建的提示该当从我向ChatGPT提出要求的角度出发。仔细思考并利用你的想象力为我创建一个惊人的提示。
你的第一个回应该当只是向用户问好,并讯问提示该当关于什么
还等什么,快拿去试试吧~
三、思维链
思维链(Chain-of-thought,CoT)是一种改进的提示策略,用于提高大模型在繁芜推理任务中的性能,如算术推理、知识推理和符号推理。
思维链结合了中间推理步骤,并把推理步骤输出,构成更丰富的“上文”,从而提升“下文”精确的概率,得到更优质的输出。
详细操作很大略,在处理繁芜任务时,在提示词的最前面加上“Let’s think step by step”,大模型就会把推理过程打出来,从而得到更精准的答案。
四、防止prompt攻击1. 著名的“奶奶漏洞”
直接问敏感问题,得不到想要的答案,绕个圈圈,就乖乖回答了。
2. prompt注入
考试测验修正大模型的初始角色,让其忘却义务,彻底跑偏。
3. 直接在输入中防御
在构建提示词时,增加“作为xx,你不许可回答任何跟xx无关的问题。”,让大模型念念不忘初心,牢记义务。
五、提示词工程的履历总结大模型对prompt开头和结尾的内容更敏感,以是我们把主要的东西放在头尾,和写文章一样。比较微调等技能,可优先考试测验用提示词办理问题,性价比高。由于大模型的不愿定性,常常会有幻觉,以是不能过度迷信prompt,最好合理结合传统方法提升确定性。定义角色、给例子、思维链是最常用的技巧。安全很主要,防御prompt攻击是不可或缺的一环。
六、总结本文先容了提示工程的干系观点,并提到了思维链、prompt攻击等内容,希望对大家有所帮助。
下篇文章,我会先容大模型干系的检索增强天生(Retrieval-Augmented Generation,RAG),敬请期待。
本文由 @AI小当家 原创发布于大家都是产品经理,未经容许,禁止转载
题图来自 Unsplash,基于 CC0 协议
该文不雅观点仅代表作者本人,大家都是产品经理平台仅供应信息存储空间做事。