Michael Chen | Senior Writer | August 29, 2025
Qualquer pessoa pode fornecer uma entrada para um grande modelo de linguagem. A pergunta é: a saída resultante do LLM atende ao objetivo pretendido ou responde à pergunta feita? Isso depende em grande parte de quão bem a entrada foi trabalhada, que é onde a engenharia imediata entra. Uma boa consulta aumenta significativamente as chances de um LLM produzir exatamente o que o projeto precisa; também gera benefícios colaterais que podem se acumular em projetos futuros.
A engenharia de prompts é a prática de elaborar instruções ou prompts para orientar um modelo de IA generativa a fim de gerar as saídas desejadas. Esse processo usa esforços iterativos para melhorar o desempenho de vários formatos, frases, chamadas de função de LLMs para outros sistemas e elementos variáveis adicionais de um prompt de IA. O objetivo é fornecer ao LLM a especificidade e o contexto ideais.
A seguir estão alguns dos elementos mais importantes da engenharia de prompt:
Embora o termo engenharia de prompt reflita a ciência geral de melhorar prompts para obter resultados, ele também atua como uma etapa no processo de desenvolvimento de aplicativos. Em sua função, os engenheiros de prompt criam modelos e scripts, conhecidos como prompts base, dentro do aplicativo que une as entradas do usuário final com o modelo, enquanto são invisíveis para o usuário. O objetivo de um prompt base é fornecer um método escalável e automatizado de fazer a ponte de consultas enquanto trabalha dentro dos limites de recursos do projeto. Uma infraestrutura que suporta inerentemente recursos de IA e ML e recursos escaláveis pode simplificar e otimizar esses tipos de projetos.
Principais conclusões
A indústria de IA vê a engenharia imediata em dois contextos, com a segunda definição sendo uma extensão da primeira. A primeira definição se refere ao próprio conjunto de habilidades real: a capacidade de criar e refinar um prompt de IA para obter a saída mais desejável possível. Um processo de tentativa e erro entra em jogo à medida que os engenheiros de prompt experimentam – com formato; escolha de palavras; dados contextuais adicionais, como chamadas de função extraídas externamente por meio de APIs; e outras variáveis – para obter a saída desejada. Os engenheiros experientes nos modelos de IA padrão mais populares terão uma chance maior de entender os formatos específicos que oferecem resultados fortes. Além disso, os engenheiros de prompt geralmente usam ferramentas que rastreiam o histórico de construção de prompt, fornecem espaço de experimentação de sandbox e oferecem testes A/B de prompts.
Uma qualidade útil para os engenheiros de alerta é um forte conhecimento no tópico do projeto. Este não é um requisito absoluto para a função; engenheiros rápidos certamente podem ser trazidos em conhecimento técnico de IA, em vez de compreensão contextual. No entanto, ao iniciar um projeto com alguma compreensão de seu propósito geral, os engenheiros rápidos podem verificar com mais eficiência as saídas para precisão e eficiência.
No entanto, é impossível esperar que todos os usuários conheçam a estratégia de um engenheiro de prompt ao usar um aplicativo. A segunda definição de engenharia de prompt, então, é integrar um prompt base estrategicamente criado no ciclo de desenvolvimento de um aplicativo. Este prompt base fornece toda a experiência do engenheiro de prompt em um modelo não visto. Quando os usuários colocam suas consultas de entrada, esses dados aumentam os prompts base em vez de ficarem completamente frios. Essa é uma parte fundamental do desenvolvimento bem-sucedido de aplicativos com tecnologia de IA, pois ajuda a garantir a mais ampla flexibilidade da capacidade do usuário, ao mesmo tempo em que fornece um padrão de saída estabelecido.
A engenharia imediata é importante porque maximiza a eficiência das iniciativas de IA em todos os aspectos, em recursos, em esforço, na experiência do usuário. Os prompts de qualidade levam a custos de processamento de consultas mais baixos e maior satisfação do usuário. Isso torna a engenharia imediata um investimento valioso para os desenvolvedores de aplicativos, mesmo que leve mais tempo e recursos durante o ciclo de desenvolvimento.
Em um nível mais granular, a engenharia imediata pode ajudar a melhorar os seguintes riscos para os desenvolvedores:
Os engenheiros de prompt geralmente começam com as considerações do projeto antes de realizar um processo de tentativa e erro que estabelece um prompt bem-sucedido, antes de finalmente integrá-lo ao aplicativo.
Veja a seguir uma visão geral de como esse processo geralmente funciona:
1. Compreender a finalidade e o público do modelo e da aplicação: Antes que ocorram etapas técnicas, os engenheiros geralmente dão um passo atrás e consideram as nuances contextuais do projeto. A demografia do público, a complexidade do modelo e as expectativas de resultados com base em variáveis, como a indústria ou o conhecimento esperado, precisam ser entendidas para uma geração rápida eficaz. Sem esse conhecimento, mesmo uma saída tecnicamente precisa pode não funcionar para as necessidades do público.
2. Compreender o problema ou a pergunta a ser explorada: Depois que o contexto mais amplo da situação for estabelecido, o engenheiro poderá detalhar o problema específico. Os fatores a serem considerados incluem a meta desejada, o nível de detalhe, os follow-ups antecipados, as etapas ou os segmentos usados e possíveis chamadas de função para dados adicionais.
3. Entenda as tendências e preferências do LLM: os LLMs individuais vêm com suas próprias peculiaridades em formatos, semântica e complexidade. Outros fatores incluem limitações de recursos envolvidas com a infraestrutura subjacente do modelo.
4. Criar o prompt inicial: Todas as etapas acima devem estabelecer informações suficientes sobre contexto, finalidade, público e limitações para criar um prompt inicial.
5. Avaliar resultados: Depois que o prompt for usado, as saídas deverão ser avaliadas quanto ao sucesso. Como esse sucesso é medido depende dos objetivos do projeto. Embora a precisão seja primordial, situações individuais também podem exigir uma ênfase no tom, voz, comprimento, nível de detalhe e engajamento contínuo usando a memória retida.
6. Refinar conforme necessário: A refinação de um prompt inclui linguagem de ajuste, adição de contexto, integração de funções por meio de chamadas de API e outras possibilidades. Os engenheiros de prompt também podem usar várias ferramentas para auxiliar no processo de refinamento; essas ferramentas podem registrar o histórico de prompts, exibir resultados por meio de testes A/B e gerenciar a análise de saída para refinamento acelerado.
7. Teste de exportabilidade: A exportabilidade oferece dois benefícios organizacionais. Ao testar o prompt em relação a diferentes LLMs, a equipe de desenvolvimento pode descobrir que um LLM é mais adequado para o projeto. Além disso, os engenheiros de prompt podem examinar as peças neutras em contexto do prompt para ver se elas podem ser exportadas para uso em outros projetos.
8. Integrar em um modelo de IA para implementação: Com um prompt de base bem-sucedido criado, a equipe de desenvolvimento pode iniciar integrações para automação e escalabilidade dentro do projeto, de preferência em uma infraestrutura de nuvem com serviços gerenciados de IA/ML para desempenho otimizado. Isso produz a meta de ter um prompt base efetivo que pode ser aumentado pela entrada do usuário.
Considere o exemplo de um assistente em um aplicativo meteorológico. O prompt base pode identificar as seguintes informações antes mesmo de uma pessoa inserir uma consulta:
Todas essas peças podem ser colocadas em prática usando um prompt base e, em seguida, ser integradas com a pergunta de um usuário para uma saída que fornece maior precisão e personalização e o tom e a linguagem apropriados.
A engenharia imediata cria o principal benefício de resultados mais específicos e precisos. A forma como isso é alcançado depende das duas diferentes formas de engenharia de prompt – tanto a prática qualificada real da engenharia de prompt quanto a integração em um modelo como modelos de base para consultas públicas.
A seguir estão alguns dos benefícios mais comuns da engenharia imediata como um todo:
Como ciência, a engenharia imediata é relativamente jovem. Os profissionais incluem desenvolvedores de software que criam prompts para adicionar recursos com tecnologia de IA às suas aplicações para tarefas, incluindo geração de conteúdo, resumo, tradução e assistências de código; comunicadores técnicos que procuram criar sistemas como chatbots de atendimento ao cliente; e profissionais especializados de engenharia de prompt que se concentram em projetar, testar e otimizar prompts para casos de uso muito específicos e especializados.
A seguir estão alguns dos desafios mais comuns enfrentados pelas pessoas que fazem engenharia imediata:
Para lidar com essas e outras limitações de recursos, muitas empresas implementam seus LLMs em uma infraestrutura de nuvem com serviços gerenciados integrados que são ajustados para oferecer suporte à IA.
Como o conceito de engenharia imediata só veio à tona na última década, continua sendo um papel em evolução. Um engenheiro de prompt bem-sucedido precisa de um conjunto de habilidades principais e uma compreensão de onde a função se encaixa no treinamento de algoritmos e no processo de desenvolvimento de aplicativos.
Em sua essência, a engenharia imediata requer uma mistura de fortes habilidades de comunicação, especialização no assunto e perspicácia de programação. Existem estruturas precisas de linguagem, semântica e gramatical necessárias para obter as respostas desejadas dos modelos de IA, e o engenheiro também deve entender a lógica e os padrões subjacentes usados pelo LLM da organização. Além disso, devem ser capazes de avaliar a precisão e a relevância da produção gerada.
Quando integrado a um fluxo de trabalho de desenvolvimento, o conjunto de habilidades de um engenheiro de alerta deve ser mais técnico. Como um prompt pode precisar fazer solicitações externas, por exemplo, uma compreensão de como as APIs e chamadas de função funcionam e a competência em linguagens de programação padrão são valiosas. Além disso, uma formação técnica permite que os engenheiros de prompt considerem os custos computacionais de diferentes estratégias de prompt para que possam encontrar um equilíbrio entre desempenho e custo-efetividade.
A engenharia imediata pode ser uma ferramenta vital para melhorar a eficiência no uso de recursos de IA e a satisfação do usuário. Ao integrar um prompt base no fluxo de trabalho de um aplicativo, os aplicativos podem gerar resultados melhores e mais precisos, mesmo quando os humanos fornecem entradas vagas.
A seguir estão apenas algumas das maneiras pelas quais a engenharia de prompt pode beneficiar casos de uso específicos.
Várias técnicas de engenharia prontas vêm com pontos fortes e fracos. Determinar o caminho certo para um projeto depende das metas, dos recursos de processamento e da infraestrutura de suporte subjacente, do LLM em uso, do público e de outros parâmetros exclusivos.
As seguintes cobrem algumas das técnicas de engenharia de prompt mais populares usadas hoje:
Os engenheiros de prompt geralmente trabalham em muitos projetos diferentes com diferentes metas, em diferentes plataformas de LLM com diferentes níveis de recursos de computação. Ainda assim, existem algumas considerações comuns para alcançar a melhor saída possível.
1. Considere a "personalidade" do seu LLM
Além das limitações padrão de todos os LLMs, como alucinações, cada plataforma vem com prós e contras. Por exemplo, atualmente o GPT-4 pode suportar texto e imagens, mas usa muitos recursos computacionais. O BERT é open source e oferece uma compreensão poderosa, mas requer mais esforço para ajustar tarefas específicas. Cada LLM também tem seu próprio formato e semântica preferidos para entrada, e os modelos estão sempre evoluindo. O que funciona para um projeto agora pode não ser em seis meses ou um ano.
2. Equilibre precisão e brevidade
Prompts vagos e abertos conduzem modelos para gerar resultados vagos ou repetitivos. A especificidade é a chave para uma boa engenharia rápida, incluindo elementos técnicos e práticos. No lado técnico, os prompts precisos levam em conta os formatos preferidos e os parâmetros conhecidos do LLM e do aplicativo. No lado prático, os principais fatores incluem o público-alvo, a função de aplicativo/modelo, o conhecimento de fundo esperado e instruções precisas, bem como amostras ou parâmetros apropriados, como o número de pontos ou exemplos solicitados.
3. Adicione pistas contextuais
Em consultas complexas, o contexto pode fazer toda a diferença, de modo que os engenheiros de prompt prestem atenção para informar o prompt e fornecer um motivo de enquadramento para a solicitação. Considere a pergunta: "É bom o tempo hoje?" Ao criar um prompt para uma IA, um engenheiro de prompt reconhece que a definição de "bom" é subjetiva. Ao adicionar estrategicamente contexto ao prompt, o engenheiro pode obter respostas mais úteis. Por exemplo, em vez de apenas fazer a pergunta à IA, um prompt poderia ser estruturado para incluir contexto:
Fornecer contexto estrategicamente ajuda o LLM a gerar respostas mais úteis e personalizadas. Os engenheiros de prompt podem optar por identificar várias chamadas de função externa por meio de APIs que podem gerar um pouco desse contexto com antecedência.
4. Seja paciente com testes iterativos e refinamento
A engenharia de prompt é um processo de tentativa e erro. Felizmente, os profissionais têm acesso a várias ferramentas que podem suportar testes iterativos e refinamento, fornecendo elementos como histórico de prompts, ambientes de sandbox para diferentes LLMs, avaliações e sugestões de desempenho e testes A/B. Usando uma ferramenta de gerenciamento de prompt, o refinamento se torna mais eficiente e rastreável, permitindo uma visão mais abrangente do caminho para um prompt otimizado. Essa visibilidade também pode criar uma base para exportar prompts de base de contexto neutro repetíveis.
O caminho evolutivo da engenharia imediata provavelmente estará vinculado aos avanços técnicos da IA e dos LLMs. A maioria dos engenheiros de ponta espera que, à medida que a compreensão dos LLMs continua a crescer, os prompts possam se tornar cada vez mais sofisticados, permitindo a inclusão de mais detalhes, especificidade e informações contextuais. Atualmente, os LLMs tendem a ter um ponto de interrupção em que prompts longos e complexos resultam em saídas sem sentido.
Uma tangente ao aumento da complexidade imediata é a capacidade de rápida adaptabilidade. Em outras palavras, os engenheiros de IA estão procurando maneiras de os LLMs gerarem prompts que podem se adaptar automaticamente com base no contexto, no histórico e nas especificações de uma conversa. Da mesma forma, os desenvolvedores estão tentando fazer com que os LLMs funcionem com vários tipos de entrada. Em um mundo perfeito, os LLMs seriam capazes de obter uma entrada multimodal de texto, áudio e imagens para criar uma saída.
Uma versão disso existe atualmente na forma de geração aumentada de recuperação (RAG). O RAG se sobrepõe ao propósito geral da engenharia de prompt, na medida em que se esforça para fornecer um contexto mais profundo que resulta em saídas mais precisas. No entanto, o RAG é realizado por meio da recuperação de dados autopropagados, com base em pistas no prompt. Em um mundo perfeito, um engenheiro de prompt cria um prompt base e, em seguida, a RAG adiciona mais contexto por meio da recuperação de dados mais relevantes, resultando em saída altamente precisa. As ferramentas RAG funcionam melhor usando bancos de dados vetoriais para recuperação rápida e quando recebem poder de processamento suficiente. À medida que os provedores de nuvem abordam esses e outros problemas para projetos de IA e machine learning, os recursos inerentes e o design escalável desses serviços fornecerão uma base melhor para oferecer suporte aos recursos de LLMs.
A IA Generativa da Oracle Cloud Infrastructure (OCI) fornece serviços gerenciados que podem ajudar a liberar tempo para que os engenheiros experimentem suas consultas sem se preocupar com o acesso a várias opções de LLM, recursos escaláveis e segurança de nível empresarial. A experiência de chat da OCI fornece uma interface pronta para uso com os modelos Cohere e Meta, ajudando a manter os dados privados.
Engenheiros de alerta são parte tradutor, parte detetive e parte codificador, usando sua criatividade e habilidades de linguagem para criar as palavras e instruções precisas para provocar o resultado desejado de LLMs imensamente complexos. Criar prompts é uma habilidade exclusivamente humana, e a recompensa é aquele momento em que ajustar uma frase transforma a resposta da IA de genérica, até alucinógena, para genial.
Prompts bem elaborados não são a única chave para o sucesso da IA. Confira nosso novo ebook para aprender dicas e táticas para aproveitar ao máximo seu investimento.
O que é engenharia imediata em IA?
A engenharia de prompt refere-se a dois elementos diferentes no AI. O primeiro é o conjunto de habilidades de engenharia de prompt, que é o processo de refinar um prompt de entrada para obter o melhor e mais preciso resultado. A segunda é a integração em um fluxo de trabalho de IA de prompts base repetíveis, automatizados e escaláveis que foram criados por um engenheiro de prompts para ajudar a gerar saídas, mesmo que os usuários forneçam apenas consultas vagas.
Como a engenharia de prompt melhora as saídas do modelo de IA?
Sem a engenharia de prompt, as saídas de modelos de IA geralmente fornecem apenas uma resposta muito geral a uma consulta básica típica. Os engenheiros de prompt se envolvem em um processo de tentativa e erro para identificar padrões, compostos de escolha de palavras, formato, chamadas de função e outros elementos, que podem ser integrados ao aplicativo como um prompt base, o que pode ajudar a fornecer respostas detalhadas a consultas de usuários até vagas.
Quais ferramentas são comumente usadas para engenharia de prompt?
Ferramentas que podem ajudar os engenheiros a fazer seus trabalhos de forma melhor e mais rápida permitem uma sandbox de teste e erro para prompts, fornecendo ferramentas de gerenciamento e a capacidade de examinar resultados com análises detalhadas, histórico e avaliação de prompts, testes A/B e encadeamento. As ferramentas de prompt suportam uma variedade de modelos e saídas principais de IA, algumas são somente texto, enquanto outras suportam imagens e texto.
Como a engenharia rápida é diferente da programação tradicional?
A programação tradicional funciona com um conjunto estrito de regras seguindo um formato de código específico, tudo para obter uma resposta repetível. A engenharia de prompt segue um fluxo de entrada/saída semelhante, mas em um caminho muito mais flexível. As entradas de engenharia de prompt usam linguagem natural, mas também funcionam melhor ao aderir a formatos e semânticas preferidos por um modelo de IA específico. Devido a essa natureza aberta, as alterações podem ser mais rápidas na engenharia imediata devido a ajustes de linguagem de tentativa e erro em vez de refinar ou depurar código; no entanto, essas alterações podem não alcançar os resultados precisos encontrados com processos de código repetíveis.
