What Is Prompt Engineering? A Guide.

Michael Chen | Senior Writer | August 29, 2025

Qualquer pessoa pode fornecer uma entrada para um grande modelo de linguagem. A pergunta é: a saída resultante do LLM atende ao objetivo pretendido ou responde à pergunta feita? Isso depende em grande parte de quão bem a entrada foi trabalhada, que é onde a engenharia imediata entra. Uma boa consulta aumenta significativamente as chances de um LLM produzir exatamente o que o projeto precisa; também gera benefícios colaterais que podem se acumular em projetos futuros.

O que é engenharia imediata?

A engenharia de prompts é a prática de elaborar instruções ou prompts para orientar um modelo de IA generativa a fim de gerar as saídas desejadas. Esse processo usa esforços iterativos para melhorar o desempenho de vários formatos, frases, chamadas de função de LLMs para outros sistemas e elementos variáveis adicionais de um prompt de IA. O objetivo é fornecer ao LLM a especificidade e o contexto ideais.

A seguir estão alguns dos elementos mais importantes da engenharia de prompt:

  • Formato: Devido à forma como os LLMs são desenvolvidos e treinados, o formato e a estrutura dos prompts são importantes para a saída. As melhores saídas começam com uma compreensão do formato preferido para o LLM usado no modelo.
  • Chamadas de função: A incorporação de dados de fontes externas pode aumentar a qualidade e a precisão de uma saída. Os prompts podem iniciar chamadas de função para extração dinâmica de dados, que retornará resultados desde que os dados desejados estejam acessíveis.
  • Especificidade: A ambiguidade no fraseamento de prompt pode criar respostas imprecisas, mal direcionadas ou abertas, até mesmo sem sentido. Um foco na especificidade na escolha de palavras aumenta a qualidade e a profundidade das respostas de saída. Simplificando, é a diferença entre dizer "eu quero um cachorro" e "eu quero um cão de resgate com menos de três anos de idade que é treinado em caixa e bom com crianças pequenas".
  • Público do usuário: Os prompts produzem os resultados mais precisos quando integram o conhecimento do público. Uma pessoa altamente técnica é muito diferente de um aluno ou uma criança, e isso deve ser refletido no prompt para que a saída atenda às expectativas do público tanto para o tom quanto para o detalhe.

Embora o termo engenharia de prompt reflita a ciência geral de melhorar prompts para obter resultados, ele também atua como uma etapa no processo de desenvolvimento de aplicativos. Em sua função, os engenheiros de prompt criam modelos e scripts, conhecidos como prompts base, dentro do aplicativo que une as entradas do usuário final com o modelo, enquanto são invisíveis para o usuário. O objetivo de um prompt base é fornecer um método escalável e automatizado de fazer a ponte de consultas enquanto trabalha dentro dos limites de recursos do projeto. Uma infraestrutura que suporta inerentemente recursos de IA e ML e recursos escaláveis pode simplificar e otimizar esses tipos de projetos.

Principais conclusões

  • A engenharia de prompt é o processo de criar, avaliar e melhorar prompts para obter resultados mais precisos de um modelo de IA.
  • Os fatores que melhoram os prompts incluem o formato preferido do LLM, a especificidade do idioma, a identificação adequada das expectativas do público e a realização de chamadas de função para dados externos.
  • No processo de desenvolvimento de aplicativos, os engenheiros de prompt criam um modelo base que aborda os fatores necessários para saídas precisas para preencher entradas de usuário potencialmente vagas com o LLM do aplicativo.
  • O desenvolvimento de aplicativos funciona melhor quando os serviços de IA e ML são fornecidos pela infraestrutura subjacente, permitindo que os engenheiros de prompt se concentrem na tarefa em questão.

Engenharia Imediata Explicada

A indústria de IA vê a engenharia imediata em dois contextos, com a segunda definição sendo uma extensão da primeira. A primeira definição se refere ao próprio conjunto de habilidades real: a capacidade de criar e refinar um prompt de IA para obter a saída mais desejável possível. Um processo de tentativa e erro entra em jogo à medida que os engenheiros de prompt experimentam – com formato; escolha de palavras; dados contextuais adicionais, como chamadas de função extraídas externamente por meio de APIs; e outras variáveis – para obter a saída desejada. Os engenheiros experientes nos modelos de IA padrão mais populares terão uma chance maior de entender os formatos específicos que oferecem resultados fortes. Além disso, os engenheiros de prompt geralmente usam ferramentas que rastreiam o histórico de construção de prompt, fornecem espaço de experimentação de sandbox e oferecem testes A/B de prompts.

Uma qualidade útil para os engenheiros de alerta é um forte conhecimento no tópico do projeto. Este não é um requisito absoluto para a função; engenheiros rápidos certamente podem ser trazidos em conhecimento técnico de IA, em vez de compreensão contextual. No entanto, ao iniciar um projeto com alguma compreensão de seu propósito geral, os engenheiros rápidos podem verificar com mais eficiência as saídas para precisão e eficiência.

No entanto, é impossível esperar que todos os usuários conheçam a estratégia de um engenheiro de prompt ao usar um aplicativo. A segunda definição de engenharia de prompt, então, é integrar um prompt base estrategicamente criado no ciclo de desenvolvimento de um aplicativo. Este prompt base fornece toda a experiência do engenheiro de prompt em um modelo não visto. Quando os usuários colocam suas consultas de entrada, esses dados aumentam os prompts base em vez de ficarem completamente frios. Essa é uma parte fundamental do desenvolvimento bem-sucedido de aplicativos com tecnologia de IA, pois ajuda a garantir a mais ampla flexibilidade da capacidade do usuário, ao mesmo tempo em que fornece um padrão de saída estabelecido.

Por que a Engenharia Rápida é Importante?

A engenharia imediata é importante porque maximiza a eficiência das iniciativas de IA em todos os aspectos, em recursos, em esforço, na experiência do usuário. Os prompts de qualidade levam a custos de processamento de consultas mais baixos e maior satisfação do usuário. Isso torna a engenharia imediata um investimento valioso para os desenvolvedores de aplicativos, mesmo que leve mais tempo e recursos durante o ciclo de desenvolvimento.

Em um nível mais granular, a engenharia imediata pode ajudar a melhorar os seguintes riscos para os desenvolvedores:

  • Viés do desenvolvedor: No contexto da engenharia de prompt, o viés se refere à introdução intencional ou não intencional de pontos de vista, suposições ou preferências por engenheiros que estão criando prompts, o que pode distorcer a saída do modelo de IA. Para evitar esse problema, o processo de engenharia de prompt pode fornecer espaço para examinar o algoritmo, treinar dados e resultados de saída de várias perspectivas. Isso ajuda na prevenção de viés, fornecendo uma revisão interna adicional durante a geração de prompt e criando prompts base de uma forma que pode potencialmente compensar ou abordar os próprios vieses de um usuário.
  • Drenagem inesperada de recursos: Durante o processo de tentativa e erro, os engenheiros de prompt podem determinar quais informações contextuais, como histórico do usuário, bancos de dados internos ou sistemas externos, são necessárias para fornecer uma saída relevante. Ao identificar os dados necessários para prompts de base fortes, os desenvolvedores podem examinar o impacto prático (ganhar acesso a dados internos) e técnico (drenagem de recursos de chamadas de função por meio de APIs) nos recursos antes de chegar muito longe no ciclo de desenvolvimento.
  • Limites e parâmetros não identificados: A engenharia de prompt fornece outra camada de exame que ajuda toda a equipe de desenvolvimento a estabelecer limites e limitações relevantes. Estes incluem parâmetros para retenção contextual versus uso de recursos; limites para interação do usuário versus cognição de software; e problemas inesperados com parâmetros de entrada, como formato e semântica.
  • Consultas imprevisíveis do usuário: Ao criar prompts base que definem a base para entradas, a engenharia de prompt pode fornecer um padrão de qualidade para consultas, mesmo que a entrada do usuário seja vaga e geral.

Como o Prompt Engineering Funciona

Os engenheiros de prompt geralmente começam com as considerações do projeto antes de realizar um processo de tentativa e erro que estabelece um prompt bem-sucedido, antes de finalmente integrá-lo ao aplicativo.

Veja a seguir uma visão geral de como esse processo geralmente funciona:

1. Compreender a finalidade e o público do modelo e da aplicação: Antes que ocorram etapas técnicas, os engenheiros geralmente dão um passo atrás e consideram as nuances contextuais do projeto. A demografia do público, a complexidade do modelo e as expectativas de resultados com base em variáveis, como a indústria ou o conhecimento esperado, precisam ser entendidas para uma geração rápida eficaz. Sem esse conhecimento, mesmo uma saída tecnicamente precisa pode não funcionar para as necessidades do público.

2. Compreender o problema ou a pergunta a ser explorada: Depois que o contexto mais amplo da situação for estabelecido, o engenheiro poderá detalhar o problema específico. Os fatores a serem considerados incluem a meta desejada, o nível de detalhe, os follow-ups antecipados, as etapas ou os segmentos usados e possíveis chamadas de função para dados adicionais.

3. Entenda as tendências e preferências do LLM: os LLMs individuais vêm com suas próprias peculiaridades em formatos, semântica e complexidade. Outros fatores incluem limitações de recursos envolvidas com a infraestrutura subjacente do modelo.

4. Criar o prompt inicial: Todas as etapas acima devem estabelecer informações suficientes sobre contexto, finalidade, público e limitações para criar um prompt inicial.

5. Avaliar resultados: Depois que o prompt for usado, as saídas deverão ser avaliadas quanto ao sucesso. Como esse sucesso é medido depende dos objetivos do projeto. Embora a precisão seja primordial, situações individuais também podem exigir uma ênfase no tom, voz, comprimento, nível de detalhe e engajamento contínuo usando a memória retida.

6. Refinar conforme necessário: A refinação de um prompt inclui linguagem de ajuste, adição de contexto, integração de funções por meio de chamadas de API e outras possibilidades. Os engenheiros de prompt também podem usar várias ferramentas para auxiliar no processo de refinamento; essas ferramentas podem registrar o histórico de prompts, exibir resultados por meio de testes A/B e gerenciar a análise de saída para refinamento acelerado.

7. Teste de exportabilidade: A exportabilidade oferece dois benefícios organizacionais. Ao testar o prompt em relação a diferentes LLMs, a equipe de desenvolvimento pode descobrir que um LLM é mais adequado para o projeto. Além disso, os engenheiros de prompt podem examinar as peças neutras em contexto do prompt para ver se elas podem ser exportadas para uso em outros projetos.

8. Integrar em um modelo de IA para implementação: Com um prompt de base bem-sucedido criado, a equipe de desenvolvimento pode iniciar integrações para automação e escalabilidade dentro do projeto, de preferência em uma infraestrutura de nuvem com serviços gerenciados de IA/ML para desempenho otimizado. Isso produz a meta de ter um prompt base efetivo que pode ser aumentado pela entrada do usuário.

Considere o exemplo de um assistente em um aplicativo meteorológico. O prompt base pode identificar as seguintes informações antes mesmo de uma pessoa inserir uma consulta:

  • Local, extraído do endereço IP do dispositivo
  • Hora do dia, também determinada pelo endereço IP
  • Dados demográficos, obtidos do perfil do aplicativo do usuário
  • Histórico de pesquisas para tipos típicos de dados solicitados, como tráfego ou atividades ao ar livre
  • Finalidade da aplicação, para enquadramento das respostas
  • Tom do aplicativo, para escolha de palavras

Todas essas peças podem ser colocadas em prática usando um prompt base e, em seguida, ser integradas com a pergunta de um usuário para uma saída que fornece maior precisão e personalização e o tom e a linguagem apropriados.

Benefícios da Engenharia Rápida

A engenharia imediata cria o principal benefício de resultados mais específicos e precisos. A forma como isso é alcançado depende das duas diferentes formas de engenharia de prompt – tanto a prática qualificada real da engenharia de prompt quanto a integração em um modelo como modelos de base para consultas públicas.

A seguir estão alguns dos benefícios mais comuns da engenharia imediata como um todo:

  • Saída e eficiência otimizadas da IA: modelos de linguagem grandes podem funcionar com qualquer entrada ou consulta geral, mas isso geralmente é um desperdício de recursos porque é necessário refinamento e esforço extra. Como um conjunto de habilidades, a engenharia de prompt ignora prompts genéricos para obter respostas mais precisas. Quando integrado a um modelo de IA, a engenharia imediata aponta o usuário em uma direção relevante e colore com eficiência os detalhes sem esforço adicional por parte da pessoa que faz a consulta.
  • Flexibilidade e Personalização Aprimoradas: Quando executadas corretamente, as primeiras etapas de uma abordagem de engenharia de prompt podem oferecer maior flexibilidade e personalização para um projeto. Ao criar um contexto neutro em domínio, os esforços de engenharia imediata podem ser importados para outros aplicativos ou modelos. Exemplos de contexto neutro de domínio incluem a identificação de dados demográficos do usuário, dados de tempo e temporada e função e tom do aplicativo. Esses elementos podem trabalhar com praticamente qualquer modelo enquanto reduzem saídas vagas e generalizadas.
  • Maior Experiência e Satisfação do Usuário: Muitas vezes, as pessoas abordam um LLM ou um aplicativo sabendo o que desejam, mas sem a capacidade de articular a solicitação de uma maneira que retorne a resposta desejada. Vamos pegar a analogia de ir ao supermercado. Sem engenharia imediata, é como entrar na loja, ficar de pé na entrada e dizer: "Estou com fome". Nesse cenário, a engenharia de prompt poderia refinar essa solicitação com base em itens como orçamento, preferências e recursos para levar você ao corredor certo. Quando incorporada ao modelo, a engenharia imediata fornece uma melhor compreensão imediata do usuário e do objetivo, proporcionando uma melhor experiência geral com resultados mais precisos.

Desafios de Engenharia Imediatos

Como ciência, a engenharia imediata é relativamente jovem. Os profissionais incluem desenvolvedores de software que criam prompts para adicionar recursos com tecnologia de IA às suas aplicações para tarefas, incluindo geração de conteúdo, resumo, tradução e assistências de código; comunicadores técnicos que procuram criar sistemas como chatbots de atendimento ao cliente; e profissionais especializados de engenharia de prompt que se concentram em projetar, testar e otimizar prompts para casos de uso muito específicos e especializados.

A seguir estão alguns dos desafios mais comuns enfrentados pelas pessoas que fazem engenharia imediata:

  • Balanceando especificidade e criatividade: O objetivo da engenharia de prompt é oferecer suporte à liberdade criativa sem atolar a saída ou os recursos. Conseguir isso é um equilíbrio difícil. Voltando à analogia do supermercado, a engenharia imediata desequilibrada é como responder a um usuário faminto com uma única escolha de espaguete congelado. A especificidade ajuda a garantir a eficiência, mas os LLMs precisam de flexibilidade apropriada para fornecer resultados precisos e de alta qualidade.
  • Gerenciamento de ambiguidade: quando um aplicativo ou modelo de IA produz resultados ambíguos, isso sobrecarrega mais o usuário – e quanto mais uma pessoa precisar iterar e refinar uma consulta, mais recursos o processo usará. Como um conjunto de habilidades, uma faceta fundamental da engenharia de prompt é minimizar a quantidade de ambiguidade nos resultados. O desafio, então, é ajustar o prompt para estabelecer um padrão de especificidade sem criar muitas limitações nos resultados.
  • Adaptando-se às limitações do modelo: Dependendo da finalidade e da função de um aplicativo, seu modelo pode ter um público e um tom muito específicos em mente. Para os engenheiros de prompt, essa direção conhecida pode fornecer um caminho mais fácil para começar. No entanto, também pode levá-los a cair em uma armadilha, construindo saídas que têm capacidade limitada de incorporar entradas inesperadas ou diversas. Os desenvolvedores de aplicativos podem trabalhar com engenheiros de prompt para discutir uma variedade aceitável de entradas e selecionar modelos de prompt base que podem equilibrar entre consultas criativas e a função específica do aplicativo.
  • Refinamento iterativo: engenheiros de prompt podem cair em uma armadilha de assumir que um prompt eficaz é um e feito. No entanto, como os modelos de IA estão aprendendo continuamente e os aplicativos estão em desenvolvimento contínuo, um prompt eficaz pode estar desatualizado em breve. Uma vez que um prompt é construído, os engenheiros devem avançar com consciência para se adaptar à natureza dinâmica do ambiente. Quando um prompt é integrado ao fluxo de trabalho de um aplicativo, o refinamento e a avaliação contínuos são particularmente importantes para ajudar a fornecer resultados de qualidade.
  • Retenção de contexto: Durante o processo de desenvolvimento de um aplicativo, toda a equipe deve considerar como equilibrar função e desempenho. Do ponto de vista da experiência do usuário, a retenção de contexto é fundamental para criar uma saída precisa. No entanto, cada camada de retenção consome mais recursos, de modo que o desafio enfrentado pelas equipes de desenvolvimento e seus engenheiros de prompt é entender qual contexto deve fazer parte de um prompt interno estabelecido e o que é necessário dos usuários externos para prompts subsequentes. Semelhante às limitações do modelo, a escolha da infraestrutura subjacente – e sua capacidade de fornecer suporte integrado para projetos de IA – pode otimizar significativamente os recursos para aumentar a flexibilidade ao examinar a retenção de contexto.
  • Como lidar com consultas longas e complexas: Eventualmente, os modelos de IA provavelmente serão capazes de lidar com consultas extremamente complexas. No momento, a maioria deles não pode – um ponto de inflexão geralmente existe onde a saída se torna ineficaz. Os desenvolvedores podem usar a engenharia de prompt para reduzir variáveis relacionadas a esse tipo de resultado, pré-carregando contexto-chave e atribuindo parâmetros.
  • Alinhamento da intenção do usuário: A engenharia de prompt pode aumentar a eficiência e fornecer uma vantagem inicial, mas e se ela for apontada na direção errada? A especificidade é um recurso-chave nas saídas de engenharia de prompt, mas somente se estiver funcionando. Assim, as equipes de desenvolvimento devem verificar para garantir que a engenharia de prompt não seja tão específica que evite as verdadeiras intenções de um usuário.

Para lidar com essas e outras limitações de recursos, muitas empresas implementam seus LLMs em uma infraestrutura de nuvem com serviços gerenciados integrados que são ajustados para oferecer suporte à IA.

Habilidades Necessárias para Engenharia Imediata

Como o conceito de engenharia imediata só veio à tona na última década, continua sendo um papel em evolução. Um engenheiro de prompt bem-sucedido precisa de um conjunto de habilidades principais e uma compreensão de onde a função se encaixa no treinamento de algoritmos e no processo de desenvolvimento de aplicativos.

Em sua essência, a engenharia imediata requer uma mistura de fortes habilidades de comunicação, especialização no assunto e perspicácia de programação. Existem estruturas precisas de linguagem, semântica e gramatical necessárias para obter as respostas desejadas dos modelos de IA, e o engenheiro também deve entender a lógica e os padrões subjacentes usados pelo LLM da organização. Além disso, devem ser capazes de avaliar a precisão e a relevância da produção gerada.

Quando integrado a um fluxo de trabalho de desenvolvimento, o conjunto de habilidades de um engenheiro de alerta deve ser mais técnico. Como um prompt pode precisar fazer solicitações externas, por exemplo, uma compreensão de como as APIs e chamadas de função funcionam e a competência em linguagens de programação padrão são valiosas. Além disso, uma formação técnica permite que os engenheiros de prompt considerem os custos computacionais de diferentes estratégias de prompt para que possam encontrar um equilíbrio entre desempenho e custo-efetividade.

Prompt de Casos de Uso de Engenharia

A engenharia imediata pode ser uma ferramenta vital para melhorar a eficiência no uso de recursos de IA e a satisfação do usuário. Ao integrar um prompt base no fluxo de trabalho de um aplicativo, os aplicativos podem gerar resultados melhores e mais precisos, mesmo quando os humanos fornecem entradas vagas.

A seguir estão apenas algumas das maneiras pelas quais a engenharia de prompt pode beneficiar casos de uso específicos.

  • Treinamento: os modelos de IA têm vários usos em salas de aula e laboratórios, e a engenharia de prompt ajuda a criar um caminho personalizado e eficaz. Considere uma universidade implementando um assistente digital personalizado para melhorar a experiência do aluno, com prompts personalizados para responder perguntas com informações em tempo real. Uma escola pode usar a IA para desenvolver planos de aprendizado personalizados, com prompts que podem extrair dados de metas do aluno e planos de aula enquanto faz chamadas de função para registros e aulas anteriores. Ou um desenvolvedor de aplicativos de tutoria pode criar prompts para que as respostas sejam apropriadas para a idade e o nível de habilidade de cada aluno.
  • Finanças: As aplicações podem ajudar nos lados interno e voltado para o cliente das finanças, incluindo geração de relatórios, análise de tendências de mercado e atendimento ao cliente. Em cada um desses casos, a engenharia de prompt pode criar inícios de cabeçalho para o usuário. Para relatórios internos, os prompts podem obter dados de chamadas de função para dados de mercado externo ou métricas internas. Para o atendimento ao cliente, os prompts podem obter dados do histórico de um cliente e fatores externos, como hora, temporada e tipo de consulta. Internamente, os prompts podem ser adaptados para ajudar com o trabalho de prevenção de fraude.
  • Assistência Médica: A IA pode ajudar a diagnosticar condições médicas, resumir registros de pacientes e gerar relatórios médicos. Esses sistemas também podem apoiar profissionais de saúde. Para conseguir tudo isso, os prompts podem ser projetados para refletir um tom apropriado para o público do paciente ou do profissional, ao mesmo tempo em que extraem o contexto necessário por meio de chamadas de função externa para registros adicionais, sistemas de funcionários e a pesquisa médica mais recente relacionada.
  • Manufatura: As empresas de manufatura adotaram a IA para oferecer suporte a uma variedade de funções, incluindo rastreamento de status da cadeia de suprimentos, controle de qualidade e ferramentas de autoatendimento do cliente. Cada um desses casos de uso requer acesso a fontes internas e externas para atender a diferentes necessidades de público. Por exemplo, para otimizar os cronogramas de produção, os prompts podem ser projetados para ir além do uso de prazos internos estabelecidos e fatores em elementos como status do fornecedor, dados do ciclo de vida da ferramenta e problemas em tempo real que podem afetar a entrega, como feriados ou condições climáticas adversas.
  • Marketing: As campanhas de marketing digital geram muitos dados. O conteúdo de marketing gerado por IA se beneficia muito de prompts projetados para aproveitar esses dados. Os engenheiros podem preparar prompts básicos que atraem, por exemplo, postagens de mídia social referenciando a marca. Para otimizar o engajamento, as campanhas de anúncios podem direcionar dados demográficos e de sentimento específicos do usuário.
  • Imóveis: O setor imobiliário recebe informações de uma ampla gama de fontes: registros de vendas públicas, taxas de juros e tendências financeiras, até mesmo dados climáticos e sazonais. Mas os aplicativos da indústria tendem a se concentrar em uma coisa: combinar aqueles que procuram casas com as propriedades certas. Enquanto isso, as empresas imobiliárias têm desafios exclusivos de gerenciamento de RH com os quais a IA pode ajudar. A engenharia de prompt pode apontar um aplicativo na direção certa com base nas necessidades e dados atuais, enquanto prepara as chamadas de função apropriadas em prompts base para fornecer o que os usuários precisam.
  • Varejo: os aplicativos de assistente de compras habilitados para IA podem aumentar a satisfação do cliente e as taxas de conversão personalizando recomendações e adicionando automação aos fluxos de trabalho do cliente. Grande parte dos dados que impulsionam essas melhorias são provenientes de dados de clientes, incluindo históricos de compras, pesquisas e serviços. Ao criar um prompt base que usa proativamente personas de clientes e pega dados apropriados, os chatbots e outros aplicativos podem envolver melhor os compradores.
  • Viagens: As aplicações de viagens com tecnologia de IA podem melhorar recomendações e itinerários personalizados, graças à engenharia imediata. Por exemplo, quando um usuário solicita uma reserva de restaurante durante uma viagem planejada, o prompt pode ir além da localização geral e do fator na história do usuário, como se as crianças estão envolvidas, enquanto faz chamadas de função para culinária, disponibilidade de mesa e custo. Esses são todos os fatores que podem ser alcançados detalhando os resultados, mas a engenharia imediata pode fornecer uma vantagem para facilitar a carga de trabalho de consultas e, ao mesmo tempo, fornecer uma saída mais rápida e precisa. Prompts bem projetados também podem permitir que assistentes digitais com tecnologia de IA ajudem os clientes e a equipe a responder perguntas sensíveis ao tempo.

Técnicas de Engenharia de Prompt

Várias técnicas de engenharia prontas vêm com pontos fortes e fracos. Determinar o caminho certo para um projeto depende das metas, dos recursos de processamento e da infraestrutura de suporte subjacente, do LLM em uso, do público e de outros parâmetros exclusivos.

As seguintes cobrem algumas das técnicas de engenharia de prompt mais populares usadas hoje:

  • Cadeia de pensamento: Direcionar o LLM para identificar e listar etapas intermediárias em direção ao objetivo final é um meio de melhorar a precisão e a transparência. As técnicas de cadeia de pensamento podem ser acionadas solicitando que o modelo liste etapas, incluindo amostras de listas de etapas de instruções ou oferecendo opções de múltipla escolha ao solicitar um raciocínio para uma seleção.
  • Estímulo direcional: A saída do LLM pode ser melhorada fornecendo dicas e direções com o prompt. O estímulo direcional funciona fornecendo pistas, parâmetros e contexto específicos para perguntas gerais em texto após a pergunta base. Ao adicionar a palavra "dica" e uma lista de detalhes, semelhante à forma como um post de mídia social pode adicionar hashtags para fornecer contexto, a saída pode ser definida para incorporar esses itens e gerar um resultado de maior qualidade.
  • Menos para a maioria: Isso implica dividir um prompt em subproblemas e executá-los em uma sequência definida. O prompt menos a mais se assemelha à abordagem da cadeia de pensamento, na medida em que vê um prompt em um nível granular, mas sua utilização de etapas intermediárias para construir progressivamente uma resposta permite mais complexidade na execução. Como os prompts de cadeia de pensamento, os prompts de menor para maior eficácia são aplicados a problemas complexos que podem ser divididos em uma série de subproblemas mais simples e sequenciais.
  • Maieutico: envolve prompts graduais e abertos que se baseiam em respostas, orientando o modelo a refletir sobre seu raciocínio. Maieutic prompting é baseado no método socrático de diálogo, que geralmente começa com uma pergunta aberta, em seguida, detalha ainda mais o raciocínio por trás de cada resposta. Na prática, isso é conseguido começando com uma pergunta e, em seguida, pedindo sucessivamente ao modelo para explicar sua resposta com mais profundidade.
  • Auto-refinação: A melhoria gradual da produção de um LLM pode ser alcançada alimentando a resposta anterior de volta ao modelo, solicitando melhorias. Self-refine prompting é uma técnica iterativa que dá ao modelo a oportunidade de reavaliar sua saída para possíveis ajustes e adições; é melhor usado para considerar problemas onde o objetivo é otimizar uma solução específica, como a geração de código. Como esta é uma técnica baseada em instruções, os engenheiros devem verificar se o modelo tem a capacidade e os recursos para reter respostas e construir iterativamente sobre elas.
  • Sequencial: envolve uma série de etapas relacionadas e sequenciais como meio de concluir um workflow ou um outline. A busca sequencial funciona melhor em duas situações: quando uma sequência específica está envolvida, como instruções ou procedimentos, e quando se inicia com uma abordagem mais ampla de um determinado tópico, então construa a resposta como um diálogo guiado até que um ponto satisfatório seja alcançado. O prompt sequencial é reconhecido por meio de palavras-chave claras que delineiam a sequência, como "etapa 1" ou "parte 2".

Melhores Práticas para Engenharia Rápida

Os engenheiros de prompt geralmente trabalham em muitos projetos diferentes com diferentes metas, em diferentes plataformas de LLM com diferentes níveis de recursos de computação. Ainda assim, existem algumas considerações comuns para alcançar a melhor saída possível.

1. Considere a "personalidade" do seu LLM
Além das limitações padrão de todos os LLMs, como alucinações, cada plataforma vem com prós e contras. Por exemplo, atualmente o GPT-4 pode suportar texto e imagens, mas usa muitos recursos computacionais. O BERT é open source e oferece uma compreensão poderosa, mas requer mais esforço para ajustar tarefas específicas. Cada LLM também tem seu próprio formato e semântica preferidos para entrada, e os modelos estão sempre evoluindo. O que funciona para um projeto agora pode não ser em seis meses ou um ano.

2. Equilibre precisão e brevidade
Prompts vagos e abertos conduzem modelos para gerar resultados vagos ou repetitivos. A especificidade é a chave para uma boa engenharia rápida, incluindo elementos técnicos e práticos. No lado técnico, os prompts precisos levam em conta os formatos preferidos e os parâmetros conhecidos do LLM e do aplicativo. No lado prático, os principais fatores incluem o público-alvo, a função de aplicativo/modelo, o conhecimento de fundo esperado e instruções precisas, bem como amostras ou parâmetros apropriados, como o número de pontos ou exemplos solicitados.

3. Adicione pistas contextuais
Em consultas complexas, o contexto pode fazer toda a diferença, de modo que os engenheiros de prompt prestem atenção para informar o prompt e fornecer um motivo de enquadramento para a solicitação. Considere a pergunta: "É bom o tempo hoje?" Ao criar um prompt para uma IA, um engenheiro de prompt reconhece que a definição de "bom" é subjetiva. Ao adicionar estrategicamente contexto ao prompt, o engenheiro pode obter respostas mais úteis. Por exemplo, em vez de apenas fazer a pergunta à IA, um prompt poderia ser estruturado para incluir contexto:

  • Restrições do usuário: A pessoa sofre de asma ou tem alergias ao pólen? Um engenheiro pode programar a IA para considerar condições locais e preocupações específicas de saúde.
  • Intenção do usuário: É um fazendeiro esperando por chuva ou um estudante esperando por um dia ensolarado para um passeio? A IA pode fornecer contexto sazonal e baseado em atividades.
  • Especificidade temporal e geográfica: qual é o país, a cidade, a estação e o dia da semana?

Fornecer contexto estrategicamente ajuda o LLM a gerar respostas mais úteis e personalizadas. Os engenheiros de prompt podem optar por identificar várias chamadas de função externa por meio de APIs que podem gerar um pouco desse contexto com antecedência.

4. Seja paciente com testes iterativos e refinamento
A engenharia de prompt é um processo de tentativa e erro. Felizmente, os profissionais têm acesso a várias ferramentas que podem suportar testes iterativos e refinamento, fornecendo elementos como histórico de prompts, ambientes de sandbox para diferentes LLMs, avaliações e sugestões de desempenho e testes A/B. Usando uma ferramenta de gerenciamento de prompt, o refinamento se torna mais eficiente e rastreável, permitindo uma visão mais abrangente do caminho para um prompt otimizado. Essa visibilidade também pode criar uma base para exportar prompts de base de contexto neutro repetíveis.

Futuro da Engenharia Rápida

O caminho evolutivo da engenharia imediata provavelmente estará vinculado aos avanços técnicos da IA e dos LLMs. A maioria dos engenheiros de ponta espera que, à medida que a compreensão dos LLMs continua a crescer, os prompts possam se tornar cada vez mais sofisticados, permitindo a inclusão de mais detalhes, especificidade e informações contextuais. Atualmente, os LLMs tendem a ter um ponto de interrupção em que prompts longos e complexos resultam em saídas sem sentido.

Uma tangente ao aumento da complexidade imediata é a capacidade de rápida adaptabilidade. Em outras palavras, os engenheiros de IA estão procurando maneiras de os LLMs gerarem prompts que podem se adaptar automaticamente com base no contexto, no histórico e nas especificações de uma conversa. Da mesma forma, os desenvolvedores estão tentando fazer com que os LLMs funcionem com vários tipos de entrada. Em um mundo perfeito, os LLMs seriam capazes de obter uma entrada multimodal de texto, áudio e imagens para criar uma saída.

Uma versão disso existe atualmente na forma de geração aumentada de recuperação (RAG). O RAG se sobrepõe ao propósito geral da engenharia de prompt, na medida em que se esforça para fornecer um contexto mais profundo que resulta em saídas mais precisas. No entanto, o RAG é realizado por meio da recuperação de dados autopropagados, com base em pistas no prompt. Em um mundo perfeito, um engenheiro de prompt cria um prompt base e, em seguida, a RAG adiciona mais contexto por meio da recuperação de dados mais relevantes, resultando em saída altamente precisa. As ferramentas RAG funcionam melhor usando bancos de dados vetoriais para recuperação rápida e quando recebem poder de processamento suficiente. À medida que os provedores de nuvem abordam esses e outros problemas para projetos de IA e machine learning, os recursos inerentes e o design escalável desses serviços fornecerão uma base melhor para oferecer suporte aos recursos de LLMs.

Como A Oracle pode ajudar

A IA Generativa da Oracle Cloud Infrastructure (OCI) fornece serviços gerenciados que podem ajudar a liberar tempo para que os engenheiros experimentem suas consultas sem se preocupar com o acesso a várias opções de LLM, recursos escaláveis e segurança de nível empresarial. A experiência de chat da OCI fornece uma interface pronta para uso com os modelos Cohere e Meta, ajudando a manter os dados privados.

Engenheiros de alerta são parte tradutor, parte detetive e parte codificador, usando sua criatividade e habilidades de linguagem para criar as palavras e instruções precisas para provocar o resultado desejado de LLMs imensamente complexos. Criar prompts é uma habilidade exclusivamente humana, e a recompensa é aquele momento em que ajustar uma frase transforma a resposta da IA de genérica, até alucinógena, para genial.

Prompts bem elaborados não são a única chave para o sucesso da IA. Confira nosso novo ebook para aprender dicas e táticas para aproveitar ao máximo seu investimento.

Perguntas Frequentes sobre Engenharia de Prompt

O que é engenharia imediata em IA?

A engenharia de prompt refere-se a dois elementos diferentes no AI. O primeiro é o conjunto de habilidades de engenharia de prompt, que é o processo de refinar um prompt de entrada para obter o melhor e mais preciso resultado. A segunda é a integração em um fluxo de trabalho de IA de prompts base repetíveis, automatizados e escaláveis que foram criados por um engenheiro de prompts para ajudar a gerar saídas, mesmo que os usuários forneçam apenas consultas vagas.

Como a engenharia de prompt melhora as saídas do modelo de IA?

Sem a engenharia de prompt, as saídas de modelos de IA geralmente fornecem apenas uma resposta muito geral a uma consulta básica típica. Os engenheiros de prompt se envolvem em um processo de tentativa e erro para identificar padrões, compostos de escolha de palavras, formato, chamadas de função e outros elementos, que podem ser integrados ao aplicativo como um prompt base, o que pode ajudar a fornecer respostas detalhadas a consultas de usuários até vagas.

Quais ferramentas são comumente usadas para engenharia de prompt?

Ferramentas que podem ajudar os engenheiros a fazer seus trabalhos de forma melhor e mais rápida permitem uma sandbox de teste e erro para prompts, fornecendo ferramentas de gerenciamento e a capacidade de examinar resultados com análises detalhadas, histórico e avaliação de prompts, testes A/B e encadeamento. As ferramentas de prompt suportam uma variedade de modelos e saídas principais de IA, algumas são somente texto, enquanto outras suportam imagens e texto.

Como a engenharia rápida é diferente da programação tradicional?

A programação tradicional funciona com um conjunto estrito de regras seguindo um formato de código específico, tudo para obter uma resposta repetível. A engenharia de prompt segue um fluxo de entrada/saída semelhante, mas em um caminho muito mais flexível. As entradas de engenharia de prompt usam linguagem natural, mas também funcionam melhor ao aderir a formatos e semânticas preferidos por um modelo de IA específico. Devido a essa natureza aberta, as alterações podem ser mais rápidas na engenharia imediata devido a ajustes de linguagem de tentativa e erro em vez de refinar ou depurar código; no entanto, essas alterações podem não alcançar os resultados precisos encontrados com processos de código repetíveis.