Prompt Engineer是智商税吗?

1个回答

写回答

雾凇沆砀

2026-01-07 23:25

+ 关注

ChatGPT
ChatGPT

但Prompt Engineering并非如此。为什么这样说,请听我细细道来。自2022年底ChatGPT问世以来,我也持续关注生成式人工智能(Gen AI)的发展。最初接触时,我通过设计提示词(prompt)与ChatGPT互动,但有时却发现它无法准确提供我需要的答案。作为技术背景出身的人,遇到这类问题时,我的第一反应是如何优化大语言模型(LLM)。于是,在之后的时间里,我尝试了多种方法,例如利用自己的数据进行嵌入(embedding),构建专属知识库,还对模型进行了微调(fine-tune),以提升其能力,使其从一个通才转型为某个领域的专才。具体实践过程和成果,可参考我在视频号分享的内容。说实话,无论是采用嵌入式方法还是微调模型,都存在一定门槛。在数据准备、训练时间以及算力消耗等方面都需要付出一定成本。此外,如果数据量不足、质量不高,或者缺乏相关技巧,最终的效果可能并不理想。除了embedding和fine-tune之外,还有一种提升大语言模型能力的方式,即提示工程(PE)。这种方法门槛较低,时间和成本投入较少,非常适合非技术背景的普通用户使用。通过精心设计提示语,可以有效引导模型生成更符合需求的内容,是一种简单实用的优化手段。首先需要澄清几个概念:大家与大模型互动时,发送给模型的所有内容都叫提示词。大模型能否准确理解意图、妥善回答问题,很大程度上取决于提示词的质量。而撰写优质提示词则需要借助提示工程的技术。PE技术其实并不复杂深奥,它并非像编程语言那样晦涩难懂,而更像是一种与LLM交流的艺术。这就好比人与人之间的沟通,要想实现彼此理解、获得准确反馈并高效达成目标,就需要一定的技巧和方法。掌握PE技术,大多数人并不会感到吃力,但尽管如此,它仍然有一套系统化的理论体系。因此,若想熟练运用,还是需要投入一定时间去学习和研究的。查阅国内外资料后,我整理了PE相关的框架与技巧,现分享给大家。关于如何撰写Prompt,我的心得可以概括为:框架、技巧与迭代。首先,必须依据特定框架撰写Prompt,这个框架就像一套标准化的沟通流程。在此基础上,叠加一些优化技巧,这些技巧如同语言艺术,能提升表达效果。如果大型语言模型返回的结果不尽如人意,就需要通过调整策略反复尝试,逐步找到最理想的回应,这就是迭代的过程。其实,这和人际交流类似,当我们发现沟通效果不佳时,通常也会换个角度或方式重新表达,以期获得更好的理解与反馈。如今已总结出许多框架与方法论,例如不难发现,这些框架其实差异不大。如果依照它们的方法与大语言模型交流,通常会比随意对话获得更理想的结果。然而,在某些应用场景中,即便遵循这些框架,也可能无法得到满意答案。这时,可以在使用框架的基础上,结合更多技巧,进一步引导大语言模型生成更加精准的结果。

然而,在复杂推理或计算场景下,即使提供了示例,大模型的回答也可能不尽如人意。此时,可采用一种名为 Few-Shot COT(链式思维)的技巧,即在示例中加入思考与推理的过程,引导大模型按照类似的逻辑路径作答,展示的例子那样。这种方法有助于提升回答的质量和准确性。

即使在某些应用场景中,如果我们一时难以找到合适的例子,可以尝试使用零样本链式思维(Zero-Shot ChAIn-of-Thought, Zero-Shot COT)方法。这种方法无需提供具体示例,而是在提示语(prompt)的末尾添加一句引导性话语,例如:请详细说明你的思考过程。 这种方式能够有效激发模型生成更具逻辑性和推理性的答案。以一个简单的数学问题为例:假设有一只青蛙从井底往上跳,每天能跳5米,但晚上会滑下3米。如果这口井深20米,问青蛙需要多少天才能跳出井口?在设计提示语时,我们可以这样表述:请解决以下问题,并逐步阐述你的解题思路:一只青蛙每天向上跳跃5米,但每晚下滑3米。已知井深20米,请计算它需要几天才能完全跳出井口。通过这种方式,即使没有提供类似问题的样例,模型仍然可以通过逐步推理得出正确答案。首先,它会分析青蛙每天净上升的高度为2米(5米减去3米)。接着,它会注意到,在最后一天,当青蛙距离井口不足5米时,它可以直接跳出而不再下滑。因此,前15米需要7天完成(每天净增2米),第8天则可以直接跃出剩余的5米。这种零样本链式思维方法适用于多种复杂问题,尤其是在需要清晰展示逻辑推导步骤的情况下。例如,在解答逻辑谜题或处理开放性任务时,这种方法尤为有效。当然,实际效果还取决于提示语的设计是否足够清晰和具体。最后提醒大家,在进行Prompt工程时,还需同步关注几个影响最终结果的关键因素。这些因素同样重要,不容忽视。首先,要留意所用语言模型的版本,不同版本能力有差异。有时低版本无法提供理想结果,而高版本却可以。因此,遇到不满意的结果时,不妨优先尝试更高版本,或许能获得更佳答案。其次是LLM的几个关键设置,例如Temperature和Top p:使用时,只需更改这两个设置中的一个,而非同时改变两者。看完上述prompt的框架与技巧后,您是否觉得运用LLM生成高质量结果并非难事?掌握方法,一切皆有可能。实际上,并非每次都需要借助SFT、RLHF等方法重新训练模型,这往往耗时费力且成本高昂。随着大语言模型能力的不断提升,例如Agent在复杂任务处理上的强大表现,结合我们对提示工程技巧的掌握,普通人也能通过设计高效Prompt实现编程、开发应用、激发创意及提高工作效率的目标。这种方式让模型的应用更加便捷与经济。未来,Prompt Engineer 这一职业或许不会单独存在。因为每个人都需要成为 Prompt Engineer,掌握相关技术,随时与大语言模型互动。这种人机协作的方式,将成为我们生活和工作的常态。欢迎关注微信公众号,一起交流AI知识,探索科技奥秘。

举报有用(0分享收藏

Copyright © 2025 IZhiDa.com All Rights Reserved.

知答 版权所有 粤ICP备2023042255号