Michael Chen | Senior Writer | August 29, 2025
任何人都可以为大型语言模型提供输入。问题是,LLM 生成的输出是否实现了预期目标或回答了所提出的问题?这在很大程度上取决于投入的精心制作,这就是快速工程的出现。一个好的查询可以显著增加 LLM 产生项目所需要的确切几率;它还可以产生未来项目可能产生的副作用。
提示工程是编写指令或提示以指导生成式 AI 模型生成所需输出的做法。此过程使用迭代来改进各种格式、短语、从 LLM 对其他系统的函数调用以及 AI 提示的其他变量元素的执行方式。目标是为 LLM 提供最佳特异性和上下文。
以下是快速工程的一些最重要的要素:
虽然“提示工程”一词反映了改进提示以实现结果这一通用的科学原理,但它也可以作为应用程序开发流程中的一步。在他们的角色中,提示工程师在应用程序中创建模板和脚本,这些模板和脚本称为基本提示,用于将最终用户输入与模型桥接在一起,同时对用户不可见。基本提示的目标是在项目资源范围内工作时提供一种可伸缩和自动化的桥接查询方法。基础设施固有地支持 AI 和 ML 功能和可扩展的资源,可以简化和优化这些类型的项目。
关键要点
人工智能行业在两个背景下看待工程,第二个定义是第一个的扩展。第一个定义是指实际的技能集本身:能够制作和细化 AI 提示以获得最理想的输出。试错过程在提示工程师进行实验时发挥作用 - 使用格式;单词选择;额外的上下文数据,例如通过 API 外部拉出的函数调用;以及其他变量 - 以实现所需的输出。熟练掌握最流行的标准 AI 模型的工程师将更有可能了解能够提供强大结果的特定格式。此外,提示工程师经常使用跟踪提示施工历史记录、提供沙盒实验空间以及提供提示的 A/B 测试的工具。
对于工程师来说,一个有用的质量是项目主题的强大知识。这并不是这个角色的绝对要求;快速的工程师当然可以利用技术 AI 专业知识,而不是情境理解。然而,通过对项目整体目的有一定的了解,提示工程师可以更有效地验证输出的准确性和效率。
然而,不可能期望每个用户在使用应用程序时都知道敏捷工程师的策略。因此,快速工程的第二个定义是将战略性创建的基础提示集成到应用程序的开发周期中。此基本提示在看不见的模板中提供提示工程师的所有专业知识。当用户输入查询时,该数据会增加基本提示,而不是完全冷淡。这是 AI 驱动的应用开发成功的关键部分,因为它有助于确保用户能力的最广泛灵活性,同时提供既定的输出标准。
提示工程非常重要,因为它可以最大限度地提高整个 AI 计划的效率,包括资源、工作量和用户体验。质量提示可降低查询处理成本并提高用户满意度。这使得即时工程对应用程序开发人员来说是一项有价值的投资,即使在开发周期中需要额外的时间和资源。
在更精细的层面上,提示性工程可以帮助降低开发人员的以下风险:
提示工程师通常首先考虑项目,然后进行试验和错误过程,建立成功的提示,然后最终将其集成到应用程序中。
下面简要介绍了此流程通常的工作方式:
1. 了解模型和应用程序的用途和受众:在执行任何技术步骤之前,工程师通常会退后一步并考虑项目的上下文细微差别。受众人口统计;模型的复杂性;以及基于变量(如行业或预期知识)的结果的期望,需要被理解,才能有效地迅速生成。如果没有这些知识,即使是技术上准确的输出也可能无法满足观众的需求。
2. 了解要探讨的问题:一旦确定了更广泛的情况,工程师就可以向下钻取到特定问题。要考虑的因素包括期望的目标、详细程度、预期的后续行动、所使用的步骤或段,以及对进一步数据的潜在函数调用。
3. 了解 LLM 的趋势和偏好:各个 LLM 在格式、语义和复杂性方面都有自己的怪癖。其他因素包括与模型的基础架构相关的资源限制。
4. 生成初始提示:以上所有步骤应建立有关上下文、目的、受众和限制的足够信息,以构建初始提示。
5. 评估结果:使用提示后,应评估输出是否成功。如何衡量成功取决于项目的目标。虽然准确性至关重要,但个别情况也可能要求强调语气,声音,长度,细节水平以及使用保留记忆的持续参与。
6. 根据需要进行细化:优化提示包括调整语言、添加上下文、通过 API 调用集成函数以及其他此类可能性。提示工程师还可以使用各种工具来帮助改进过程;这些工具可以记录提示历史记录,通过 A/B 测试显示结果,并管理输出分析以加快改进速度。
7. 可导出性测试:可导出性提供了两个组织优势。通过针对不同的 LLM 测试提示,开发团队可能会发现一个 LLM 更适合项目。此外,提示工程师可以检查提示的上下文中立部分,以查看是否可以导出它们以用于其他项目。
8. 集成到部署 AI 模型中:通过成功构建的基础提示,开发团队可以开始集成项目中的自动化和可扩展性,最好是在具有托管 AI/ML 服务的云基础设施上进行集成,以优化性能。这样可以生成一个有效的基本提示,然后可以通过用户输入进行扩充。
考虑一下天气应用程序中助手的示例。在人员甚至输入查询之前,基本提示可能标识以下信息:
所有这些部件都可以使用基本提示来实施,然后与用户的问题集成,以获得更高的准确性和个性化以及适当的语气和语言。
提示工程可为更具体、更准确的结果创造关键优势。实现这一目标的方式取决于两种不同的提示工程形式 - 提示工程的实际熟练实践以及集成到模型中作为公共查询的基本模板。
以下是整个快速工程的一些最常见的优点:
作为一门科学,快速工程相对年轻。从业人员包括软件开发人员,他们制作提示,将 AI 驱动的功能添加到他们的应用程序中,以完成任务,包括内容生成,汇总,翻译和代码协助;希望创建客户服务聊天机器人等系统的技术通信人员;以及专注于设计,测试和优化提示的专业快速工程专业人员,以实现非常具体,专门的用例。
以下是快速工程处理人员面临的一些最常见的挑战:
为了解决这些和其他资源限制,许多企业将其 LLM 部署在具有内置托管服务的云基础设施上,并进行了优化以支持 AI。
由于快速工程的概念仅在过去的十年中才走在前列,因此它仍然是一个不断发展的角色。一个成功的提示工程师需要一个核心技能集,并了解该功能在更大的算法训练和应用程序开发过程中的位置。
在其核心,快速工程需要强大的沟通技巧,主题专业知识和编程敏锐的混合。有精确的语言,语义和语法结构需要从 AI 模型中获得所需的响应,工程师还必须了解组织的 LLM 使用的基本逻辑和模式。此外,它们必须能够评估所产生产出的准确性和相关性。
当集成到开发工作流程中时,提示工程师的技能集应该更倾向于技术性。因为提示可能需要发出外部请求,例如,了解 API 和函数调用在标准编程语言中的工作方式和能力。此外,技术背景允许提示工程师考虑不同提示策略的计算成本,以便他们能够在性能和成本效益之间取得平衡。
提示工程可以成为提高 AI 资源使用效率和用户满意度的重要工具。通过将基本提示集成到应用程序的工作流中,应用程序可以生成更好,更准确的结果,即使人类提供模糊的输入。
以下是提示工程可以使特定用例受益的一些方法。
各种快速的工程技术都具有优点和缺点。确定适合的项目取决于目标、处理能力和底层支持基础设施、使用中的 LLM、受众和其他独特参数。
以下是目前使用的一些最流行的快速工程技术:
提示工程师通常在具有不同目标的许多不同项目上工作,这些项目跨具有不同计算资源的不同 LLM 平台。尽管如此,还是有一些共同的考虑,以实现最佳的产出。
1. 考虑您的 LLM 的“个性”
除了所有 LLM 的标准限制(如幻觉)外,每个平台还具有优缺点。例如,当前 GPT-4 可以同时支持文本和图像,但使用了大量的计算资源。BERT 是开源的,提供强大的理解能力,但需要为特定任务进行更多的微调。每个 LLM 都有自己首选的输入格式和语义,并且模型总是不断发展。对于一个项目,现在可能不会在六个月或一年内完成。
2. 平衡精度和简洁性
模糊的开放式提示引导模型输出模糊或重复的结果。特殊性是良好的快速工程的关键,包括技术和实践要素。在技术方面,精确的提示因素在首选格式和已知参数的 LLM 和应用程序。在实际方面,关键因素包括目标受众,应用程序/模型功能,预期的背景知识和精确的指令,以及适当的样本或参数,例如请求的点数或示例数。
3. 添加上下文线索
在复杂查询中,上下文可以产生所有差异,因此提示工程师应注意通知提示,并提供请求的框架原因。问:“今天天气好吗?”在为人工智能制定提示时,一个提示工程师认识到“好”的定义是主观的。通过在提示中添加上下文,工程师可以获得更有用的响应。例如,可以构建一个提示来包含上下文,而不只是向 AI 问问题:
战略性地提供上下文有助于 LLM 生成更有用和个性化的响应。提示工程师可以选择通过 API 来识别各种外部函数调用,这些 API 可以提前生成其中的一些上下文。
4. 耐心进行迭代测试和细化
提示工程是一个试错过程。幸运的是,从业者可以访问各种工具,这些工具可以通过提供提示历史记录、不同 LLM 的沙盒环境、性能评估和建议以及 A/B 测试等元素来支持迭代测试和优化。通过使用提示管理工具,优化变得更加高效和可跟踪,从而可以更全面地查看优化提示的路径。此可见性还可以为导出可重复的中性上下文基本提示奠定基础。
提示工程的进化路径可能与 AI 和 LLM 的技术进步有关。大多数敏捷的工程师预计,随着 LLM 的理解不断增长,提示可能会变得越来越复杂,允许包含更详细的细节,特异性和上下文信息。目前,LLM 往往有一个断点,即长而复杂的提示会导致不合理的输出。
增加快速复杂性的切合点是快速适应能力的能力。换句话说,AI 工程师正在寻找 LLM 生成提示的方法,这些提示可以根据对话的上下文、历史记录和规范进行自适应。同样,开发人员正在寻求使 LLM 与多种类型的输入一起工作。在完美的世界中,LLM 将能够对文本、音频和图像进行多模式输入以创建输出。
该版本当前以 retrieval-augmented generation (RAG) 的形式存在。RAG 与提示工程的一般用途重叠,因为它力求提供更深入的背景,从而产生更准确的输出。但是,RAG 是根据提示内的线索通过自行传播的数据检索执行的。在一个完美的世界中,一个提示工程师构建了一个基本提示,然后 RAG 通过检索更相关的数据来添加进一步的上下文,从而产生高度准确的输出。RAG 工具最适合使用向量数据库进行快速检索,并具有足够的处理能力。随着云提供商解决人工智能和机器学习项目的这些问题和其他问题,这些服务的固有功能和可扩展设计将为支持 LLM 的功能提供更好的基础。
Oracle Cloud Infrastructure (OCI) Generative AI 提供托管服务,可帮助提示工程师腾出时间试验查询,而无需担心访问多个 LLM 选项、可扩展资源和企业级安全性。OCI 聊天体验提供 Cohere 和 Meta 模型的开箱即用界面,同时帮助保持数据私密性。
提示工程师是部分翻译,部分侦探和部分编码员,利用他们的创造力和语言技能来制作精确的单词和指令,从极其复杂的 LLM 中梳理出想要的结果。制作提示是一项独特的人类技能,而回报是调整短语将 AI 的反应从普通的,甚至致幻的,天才转变的那一刻。
精心设计的提示并不是 AI 成功的唯一关键。查看我们的新电子书,了解如何充分利用投资的技巧和策略。
什么是 AI 中的快速工程?
提示工程是指 AI 中的两个不同元素。第一个是快速工程的技能集,这是改进输入提示以获得最佳,最准确的结果的过程。第二个是集成到可重复、自动化和可扩展的基本提示的人工智能工作流中,这些提示由提示工程师设计,即使用户只提供模糊的查询,也能帮助生成输出。
提示工程如何改善 AI 模型输出?
如果不进行快速工程处理,AI 模型输出通常只会对典型的基本查询提供非常一般性的响应。提示工程师参与了一个试错过程,以识别模式,包括单词选择,格式,函数调用和其他元素,然后可以作为基本提示集成到应用程序中,这可以帮助对甚至模糊的用户查询提供详细的响应。
哪些工具通常用于快速工程?
可以帮助提示工程师更好更快地完成工作的工具允许试错沙盒进行提示,同时提供管理工具,并能够通过详细的分析、提示历史记录和评估、A/B 测试和链接来检查结果。提示工具支持各种核心 AI 模型和输出,其中一些仅支持文本,而另一些支持图像和文本。
提示性工程与传统编程有何不同?
传统编程遵循一组严格的规则,遵循特定的代码格式,所有这些都可以实现可重复的响应。提示工程遵循类似的输入/输出流,但在更宽松的路径中。提示性工程输入使用自然语言,但在遵循特定 AI 模型首选的格式和语义时效果最好。由于这种开放的性质,由于试验和错误语言的调整,在快速工程中更改可以更快,而不是改进或调试代码;但是,这些更改可能无法通过可重复的代码进程实现精确的结果。
注:为免疑义,本网页所用以下术语专指以下含义:
