Michael Chen | Senior Writer | August 29, 2025
Jeder kann einen Input für ein großes Sprachmodell bereitstellen. Die Frage ist, ob die resultierende Ausgabe des LLM das beabsichtigte Ziel erfüllt oder die gestellte Frage beantwortet? Das hängt weitgehend davon ab, wie gut der Input gemacht wurde, wo Prompt Engineering ins Spiel kommt. Eine gute Abfrage erhöht die Wahrscheinlichkeit, dass ein LLM genau das produziert, was das Projekt benötigt; sie generiert auch Nebenvorteile, die sich auf zukünftige Projekte auswirken können.
Prompt Engineering ist die Praxis, Anweisungen oder Prompts zu erstellen, um ein generatives KI-Modell anzuleiten, um die gewünschten Ausgaben zu generieren. Dieser Prozess nutzt iterative Bemühungen, um die Performance verschiedener Formate, Phrasen, Funktionsaufrufe von LLMs zu anderen Systemen und zusätzlicher variabler Elemente eines AI-Prompts zu verbessern. Ziel ist es, dem LLM eine optimale Spezifität und einen optimalen Kontext zu bieten.
Im Folgenden sind einige der wichtigsten Elemente des Prompt Engineering aufgeführt:
Während der Begriff "Prompt Engineering" die allgemeine Wissenschaft der Verbesserung von Prompts zum Erreichen von Ergebnissen widerspiegelt, fungiert er auch als Schritt im Anwendungsentwicklungsprozess. In ihrer Rolle erstellen Prompt-Ingenieure Vorlagen und Skripte, die als Basis-Prompts bezeichnet werden, in der App, die Endbenutzereingaben mit dem Modell verbinden, während sie für den Benutzer unsichtbar sind. Ziel eines Basis-Prompts ist es, eine skalierbare und automatisierte Methode zur Überbrückung von Anfragen während der Arbeit innerhalb der Ressourcengrenzen des Projekts bereitzustellen. Eine Infrastruktur, die von Natur aus KI- und ML-Funktionen und skalierbare Ressourcen unterstützt, kann diese Projekttypen vereinfachen und optimieren.
Wichtige Erkenntnisse
Die KI-Branche sieht schnelles Engineering in zwei Kontexten, wobei die zweite Definition eine Erweiterung der ersten ist. Die erste Definition bezieht sich auf den tatsächlichen Skill selbst: die Fähigkeit, einen KI-Prompt zu erstellen und zu verfeinern, um die wünschenswerteste Ausgabe zu erzielen. Ein Trial-and-Error-Prozess kommt ins Spiel, wenn Prompt-Ingenieure – mit Format, Wortwahl, zusätzlichen kontextbezogenen Daten, wie Funktionsaufrufen, die extern über APIs abgerufen werden, und anderen Variablen – experimentieren, um die gewünschte Ausgabe zu erzielen. Prompt-Ingenieure, die mit den beliebtesten Standard-KI-Modellen vertraut sind, haben eine stärkere Chance, die spezifischen Formate zu verstehen, die starke Ergebnisse liefern. Darüber hinaus verwenden Prompt-Ingenieure häufig Tools, die den Prompt-Bauverlauf verfolgen, Sandbox-Experimentationsraum bereitstellen und A/B-Tests von Prompts anbieten.
Eine hilfreiche Qualität für prompte Ingenieure ist ein starkes Wissen im Projektthema. Dies ist keine absolute Anforderung für die Rolle; prompte Ingenieure können sicherlich eher auf technisches KI-Know-how als auf kontextbezogenes Verständnis gebracht werden. Wenn Sie jedoch ein Projekt mit einem gewissen Verständnis für seinen Gesamtzweck beginnen, können Prompt-Ingenieure die Ergebnisse effizienter auf Genauigkeit und Effizienz überprüfen.
Es ist jedoch unmöglich zu erwarten, dass jeder Benutzer die Strategie eines prompten Ingenieurs kennt, wenn er eine App verwendet. Die zweite Definition von Prompt Engineering besteht also darin, einen strategisch erstellten Basis-Prompt in den Entwicklungszyklus einer App zu integrieren. Dieser Basis-Prompt bietet alle Kenntnisse des Prompt-Ingenieurs in einer nicht angezeigten Vorlage. Wenn Benutzer ihre Eingabeabfragen eingeben, erweitert diese Datenbasis die Eingabeaufforderungen, anstatt völlig kalt zu werden. Dies ist ein wichtiger Bestandteil einer erfolgreichen KI-gestützten App-Entwicklung, da es dazu beiträgt, die größtmögliche Flexibilität der Benutzerfähigkeit zu gewährleisten und gleichzeitig einen etablierten Ausgabestandard bereitzustellen.
Schnelles Engineering ist wichtig, weil es die Effizienz von KI-Initiativen auf der ganzen Linie maximiert – in Ressourcen, im Aufwand, in der Benutzererfahrung. Qualitäts-Prompts führen zu niedrigeren Abfrageverarbeitungskosten und einer höheren Benutzerzufriedenheit. Das macht schnelles Engineering zu einer lohnenden Investition für App-Entwickler, auch wenn es während des Entwicklungszyklus zusätzliche Zeit und Ressourcen benötigt.
Auf einer detaillierteren Ebene kann das prompte Engineering dazu beitragen, die folgenden Risiken für Entwickler zu verringern:
Prompt-Ingenieure beginnen in der Regel mit Projektüberlegungen, bevor sie einen Trial-and-Error-Prozess durchführen, der einen erfolgreichen Prompt festlegt, bevor er schließlich in die App integriert wird.
Im Folgenden finden Sie eine allgemeine Übersicht über die Funktionsweise dieses Prozesses:
1. Verständnis des Zweckes und der Zielgruppe des Modells und der Anwendung: Bevor technische Schritte durchgeführt werden, gehen Ingenieure in der Regel einen Schritt zurück und berücksichtigen die kontextbezogenen Nuancen des Projekts. Demografie der Zielgruppe; Modellkomplexität; und Erwartungen an Ergebnisse, die auf Variablen wie Industrie oder erwartetem Wissen basieren, müssen für eine effektive schnelle Generierung verstanden werden. Ohne dieses Wissen kann auch eine technisch korrekte Ausgabe nicht für die Bedürfnisse des Publikums funktionieren.
2. Verstehen Sie das zu untersuchende Problem oder die zu untersuchende Frage: Sobald der breitere Kontext der Situation festgelegt wurde, kann der Techniker einen Drilldown zu dem spezifischen Problem durchführen. Zu den Faktoren, die berücksichtigt werden müssen, gehören das gewünschte Ziel, die Detailebene, erwartete Folgeaktivitäten, verwendete Schritte oder Segmente und potenzielle Funktionsaufrufe für weitere Daten.
3. Verstehen Sie die Tendenzen und Präferenzen des LLM: Einzelne LLMs haben ihre eigenen Eigenheiten in Formaten, Semantik und Komplexität. Weitere Faktoren sind Ressourcenbeschränkungen, die mit der zugrunde liegenden Infrastruktur des Modells verbunden sind.
4. Ersten Prompt erstellen: Alle oben genannten Schritte sollten genügend Informationen zu Kontext, Zweck, Zielgruppe und Einschränkungen enthalten, um einen ersten Prompt zu erstellen.
5. Ergebnisse bewerten: Sobald der Prompt verwendet wurde, müssen die Ausgaben erfolgreich ausgewertet werden. Wie dieser Erfolg gemessen wird, hängt von den Zielen des Projekts ab. Während Genauigkeit von größter Bedeutung ist, können einzelne Situationen auch eine Betonung auf Ton, Stimme, Länge, Detaillierungsgrad und kontinuierliches Engagement mit beibehaltenem Speicher erfordern.
6. Nach Bedarf verfeinern: Das Verfeinern einer Eingabeaufforderung umfasst das Optimieren der Sprache, das Hinzufügen von Kontext, das Integrieren von Funktionen über API-Aufrufe und andere solche Möglichkeiten. Prompt-Ingenieure können auch verschiedene Tools verwenden, um den Verfeinerungsprozess zu unterstützen. Solche Tools können die Prompt-Historie aufzeichnen, Ergebnisse über A/B-Tests anzeigen und die Ausgabeanalyse zur beschleunigten Verfeinerung verwalten.
7. Auf Exportierbarkeit testen: Die Exportierbarkeit bietet zwei organisatorische Vorteile. Durch das Testen der Prompt anhand verschiedener LLMs kann das Entwicklungsteam feststellen, dass ein LLM besser für das Projekt geeignet ist. Darüber hinaus können Prompt-Ingenieure die kontextneutralen Teile des Prompts untersuchen, um zu sehen, ob sie zur Verwendung in anderen Projekten exportiert werden können.
8. Integration in ein KI-Modell für die Bereitstellung: Mit einem erfolgreichen Basis-Prompt kann das Entwicklungsteam Integrationen zur Automatisierung und Skalierbarkeit innerhalb des Projekts beginnen, vorzugsweise in einer Cloud-Infrastruktur mit verwalteten KI/ML-Services für eine optimierte Performance. Dadurch wird das Ziel erreicht, einen effektiven Basis-Prompt zu haben, der dann durch Benutzereingaben erweitert werden kann.
Betrachten Sie das Beispiel eines Assistenten in einer Wetter-App. Die Basis-Eingabeaufforderung kann die folgenden Informationen identifizieren, bevor eine Person überhaupt eine Abfrage eingibt:
Alle diese Teile können mit einem Basis-Prompt platziert werden und dann mit der Frage eines Benutzers für eine Ausgabe integriert werden, die eine höhere Genauigkeit und Personalisierung sowie den entsprechenden Ton und die entsprechende Sprache bietet.
Schnelles Engineering schafft den Hauptvorteil spezifischerer, genauerer Ergebnisse. Wie dies erreicht wird, hängt von den beiden verschiedenen Formen des Prompt Engineerings ab – sowohl von der tatsächlichen qualifizierten Praxis des Prompt Engineerings als auch von der Integration in ein Modell als Basisvorlagen für öffentliche Abfragen.
Im Folgenden sind einige der häufigsten Vorteile von Prompt Engineering als Ganzes aufgeführt:
Als Wissenschaft ist prompte Technik relativ jung. Zu den Praktikern gehören Softwareentwickler, die Prompts erstellen, um ihren Anwendungen KI-gestützte Funktionen für Aufgaben hinzuzufügen, einschließlich Inhaltsgenerierung, Zusammenfassung, Übersetzung und Code-Unterstützung; technische Kommunikatoren, die Systeme wie Kundenservice-Chatbots erstellen möchten; und spezialisierte Prompt-Engineering-Experten, die sich auf das Entwerfen, Testen und Optimieren von Prompts für sehr spezifische, spezialisierte Anwendungsfälle konzentrieren.
Im Folgenden sind einige der häufigsten Herausforderungen aufgeführt, vor denen Menschen beim prompten Engineering stehen:
Um diese und andere Ressourcenbeschränkungen zu beheben, stellen viele Unternehmen ihre LLMs in einer Cloud-Infrastruktur mit integrierten verwalteten Services bereit, die auf die Unterstützung von KI abgestimmt sind.
Da das Konzept der prompten Technik erst in den letzten zehn Jahren in den Vordergrund gerückt ist, bleibt es eine sich entwickelnde Rolle. Ein erfolgreicher Prompt-Ingenieur benötigt eine Kernkompetenz und ein Verständnis dafür, wo die Funktion in den größeren Algorithmus-Schulungs- und App-Entwicklungsprozess passt.
Im Kern erfordert zeitnahes Engineering eine Mischung aus starken Kommunikationsfähigkeiten, Fachwissen und Programmierkenntnis. Es gibt präzise sprachliche, semantische und grammatikalische Strukturen, die erforderlich sind, um die gewünschten Antworten von KI-Modellen zu erhalten, und der Ingenieur muss auch die zugrunde liegende Logik und Muster verstehen, die vom LLM der Organisation verwendet werden. Darüber hinaus müssen sie in der Lage sein, die Genauigkeit und Relevanz des erzeugten Outputs zu bewerten.
Bei der Integration in einen Entwicklungsworkflow sollten die Fähigkeiten eines Prompt-Ingenieurs technischer sein. Da ein Prompt beispielsweise externe Anforderungen stellen muss, sind ein Verständnis der Funktionsweise von APIs und Funktionsaufrufen sowie die Kompetenz in Standardprogrammiersprachen wertvoll. Darüber hinaus ermöglicht ein technischer Hintergrund es prompten Ingenieuren, die Rechenkosten verschiedener Prompting-Strategien zu berücksichtigen, damit sie ein Gleichgewicht zwischen Leistung und Kosteneffizienz erreichen können.
Schnelles Engineering kann ein wichtiges Instrument sein, um sowohl die Effizienz bei der Nutzung von KI-Ressourcen als auch die Benutzerzufriedenheit zu verbessern. Durch die Integration einer Basis-Prompt in den Workflow einer App können Apps bessere und genauere Ergebnisse erzielen, selbst wenn Menschen vage Eingaben bereitstellen.
Im Folgenden sind nur einige der Möglichkeiten aufgeführt, wie schnelles Engineering spezifische Anwendungsfälle nutzen kann.
Verschiedene schnelle Technik kommen mit Stärken und Schwächen. Die Ermittlung des richtigen Projekts hängt von den Zielen, den Verarbeitungsfunktionen und der zugrunde liegenden Supportinfrastruktur, dem verwendeten LLM, der Zielgruppe und anderen eindeutigen Parametern ab.
Im Folgenden werden einige der beliebtesten Prompt-Engineering-Techniken behandelt, die heute verwendet werden:
Prompt-Ingenieure arbeiten häufig an vielen verschiedenen Projekten mit unterschiedlichen Zielen über verschiedene LLM-Plattformen mit unterschiedlichen Ebenen von Rechenressourcen hinweg. Dennoch gibt es einige gemeinsame Überlegungen, um die bestmögliche Leistung zu erzielen.
1. Betrachten Sie die "Persönlichkeit" Ihres LLM
Zusätzlich zu den Standardbeschränkungen aller LLMs, wie Halluzinationen, bietet jede Plattform Vor- und Nachteile. Zum Beispiel kann GPT-4 derzeit sowohl Text als auch Bilder unterstützen, verwendet jedoch viele Rechenressourcen. BERT ist Open Source und bietet ein leistungsstarkes Verständnis, erfordert jedoch mehr Aufwand bei der Feinabstimmung für bestimmte Aufgaben. Jedes LLM hat auch sein eigenes bevorzugtes Format und seine Semantik für die Eingabe, und Modelle entwickeln sich ständig weiter. Was jetzt für ein Projekt funktioniert, könnte nicht in sechs Monaten oder einem Jahr sein.
2. Ausgewogene Präzision und Kürze
Vage, unbestimmte Eingabeaufforderungen führen dazu, dass Modelle vage oder repetitive Ergebnisse liefern. Spezifität ist der Schlüssel für ein gutes zeitnahes Engineering, das sowohl technische als auch praktische Elemente umfasst. Auf der technischen Seite berücksichtigen präzise Prompts die bevorzugten Formate und bekannten Parameter des LLM und der App. Praktisch sind unter anderem die Zielgruppe, die App/Modell-Funktion, das erwartete Hintergrundwissen und genaue Anweisungen sowie entsprechende Samples oder Parameter, wie die Anzahl der angeforderten Punkte oder Beispiele.
3. Kontextbezogene Hinweise hinzufügen
In komplexen Abfragen kann Kontext den Unterschied ausmachen, sodass Prompt-Ingenieure darauf achten, den Prompt zu informieren, und einen Rahmen für die Anforderung angeben. Die Frage: "Ist das Wetter heute gut?" Beim Erstellen einer Aufforderung für eine KI erkennt ein prompter Ingenieur, dass die Definition von "gut" subjektiv ist. Durch strategisches Hinzufügen von Kontext zur Eingabeaufforderung kann der Techniker nützlichere Antworten liefern. Beispiel: Anstatt der KI nur die Frage zu stellen, könnte ein Prompt so strukturiert werden, dass er Kontext enthält:
Die strategische Bereitstellung von Kontext hilft dem LLM, nützlichere und personalisiertere Antworten zu generieren. Prompt-Ingenieure können verschiedene externe Funktionsaufrufe über APIs identifizieren, die einen Teil dieses Kontexts im Voraus generieren können.
4. Geduld mit iterativen Tests und Verfeinerungen
Die Eingabeaufforderungstechnik ist ein Prozess der Prüfung und des Fehlers. Glücklicherweise haben Praktiker Zugriff auf verschiedene Tools, die iterative Tests und Verfeinerungen unterstützen können, indem sie Elemente wie Prompt History, Sandbox-Umgebungen für verschiedene LLMs, Leistungsbewertungen und Vorschläge sowie A/B-Tests bereitstellen. Durch die Verwendung eines Prompt-Management-Tools wird die Verfeinerung effizienter und nachvollziehbarer und ermöglicht so einen umfassenderen Überblick über den Pfad zu einer optimierten Eingabeaufforderung. Diese Sichtbarkeit kann auch eine Grundlage für den Export wiederholbarer, kontextneutraler Basis-Prompts bilden.
Der Evolutionsweg von Prompt Engineering wird wahrscheinlich an die technischen Fortschritte von KI und LLMs gebunden sein. Die meisten prompten Ingenieure erwarten, dass, wenn das Verständnis von LLMs weiter wächst, Prompts immer ausgefeilter werden können, was eine Aufnahme von detaillierteren, spezifischeren und kontextbezogenen Informationen ermöglicht. Derzeit haben LLMs tendenziell eine Bruchstelle, bei der lange und komplexe Eingabeaufforderungen zu unsinnigen Ausgaben führen.
Eine Tangente zu einer erhöhten zeitnahen Komplexität ist die Fähigkeit zur schnellen Anpassungsfähigkeit. Mit anderen Worten, KI-Ingenieure suchen nach Möglichkeiten für LLMs, Prompts zu generieren, die sich basierend auf dem Kontext, der Geschichte und den Spezifikationen eines Gesprächs selbst anpassen können. In ähnlicher Weise versuchen Entwickler, LLMs mit mehreren Eingabearten arbeiten zu lassen. In einer perfekten Welt könnten LLMs eine multimodale Eingabe von Text, Audio und Bildern vornehmen, um eine Ausgabe zu erstellen.
Eine Version davon ist derzeit in Form einer retrieval-augmented generation (RAG) vorhanden. RAG überschneidet sich mit dem allgemeinen Zweck der Prompt-Engineering, da es darum bemüht ist, einen tieferen Kontext bereitzustellen, der zu genaueren Ausgaben führt. RAG wird jedoch über einen selbstpropagierten Datenabruf basierend auf Hinweisen innerhalb der Eingabeaufforderung durchgeführt. In einer perfekten Welt erstellt ein Prompt-Ingenieur einen Basis-Prompt, dann fügt RAG durch das Abrufen relevanterer Daten weiteren Kontext hinzu, was zu einer hochgenauen Ausgabe führt. RAG-Tools arbeiten am besten mit Vektordatenbanken für einen schnellen Abruf und bei ausreichender Rechenleistung. Da Cloud-Provider diese und andere Probleme für KI- und ML-Projekte angehen, werden die inhärenten Funktionen und das skalierbare Design dieser Services eine bessere Grundlage bieten, um die Funktionen von LLMs zu unterstützen.
Oracle Cloud Infrastructure (OCI) Generative AI bietet verwaltete Services, die dazu beitragen können, Zeit zu gewinnen, damit Ingenieure ihre Abfragen ausprobieren können, ohne sich Gedanken über den Zugriff auf mehrere LLM-Auswahlmöglichkeiten, skalierbare Ressourcen und Sicherheit der Unternehmensklasse machen zu müssen. Die OCI-Chat-Erfahrung bietet eine sofort einsatzbereite Schnittstelle mit Cohere- und Meta-Modellen und hilft gleichzeitig, Daten privat zu halten.
Prompt-Ingenieure sind Teilübersetzer, Teildetektiv und Teilcodierer und nutzen ihre Kreativität und Sprachkenntnisse, um die genauen Wörter und Anweisungen zu erstellen, um das gewünschte Ergebnis aus immens komplexen LLMs herauszuholen. Das Erstellen von Prompts ist eine einzigartige menschliche Fähigkeit, und die Auszahlung ist der Moment, in dem eine Phrase die Reaktion der KI von generischen, sogar halluzinogenen, zu Genies transformiert.
Gut ausgearbeitete Prompts sind nicht der einzige Schlüssel zum KI-Erfolg. Sehen Sie sich unser neues E-Book an, um Tipps und Taktiken zu lernen, um das Beste aus Ihrer Investition herauszuholen.
Was ist Prompt Engineering in der KI?
Prompt Engineering bezieht sich auf zwei verschiedene Elemente in der KI. Der erste ist der Skillsatz des Prompt-Engineering, bei dem eine Eingabeaufforderung verfeinert wird, um das beste und genaueste Ergebnis zu erhalten. Die zweite ist die Integration in einen KI-Workflow mit wiederholbaren, automatisierten und skalierbaren Basis-Prompts, die von einem Prompt-Techniker erstellt wurden, um Ausgaben zu generieren, auch wenn Benutzer nur vage Abfragen bereitstellen.
Wie verbessert das Prompt Engineering die KI-Modellausgaben?
Ohne Prompt Engineering liefern KI-Modellausgaben oft nur eine sehr allgemeine Antwort auf eine typische grundlegende Abfrage. Prompt-Ingenieure arbeiten an einem Trial-and-Error-Prozess, um Muster zu identifizieren, die aus Wortwahl, Format, Funktionsaufrufen und anderen Elementen bestehen, die dann als Basis-Prompt in die App integriert werden können, was dazu beitragen kann, detaillierte Antworten auf sogar vage Benutzeranfragen zu liefern.
Welche Tools werden häufig für das Prompt Engineering verwendet?
Tools, mit denen Ingenieure ihre Arbeit besser und schneller erledigen können, ermöglichen eine Sandbox für Test- und Fehlerzwecke, während sie Managementtools bereitstellen und Ergebnisse mit detaillierten Analysen, Prompt-History und -Evaluierung, A/B-Tests und Verkettung untersuchen können. Prompt-Tools unterstützen eine Vielzahl von KI-Kernmodellen und -Ausgaben – einige sind nur Text, während andere Bilder und Text unterstützen.
Wie unterscheidet sich promptes Engineering von herkömmlicher Programmierung?
Die traditionelle Programmierung arbeitet mit einem strengen Regelsatz, der einem bestimmten Codeformat folgt, um eine wiederholbare Antwort zu erreichen. Prompt-Engineering folgt einem ähnlichen Eingabe-/Ausgabefluss, jedoch in einem viel lockeren Pfad. Prompt-Engineering-Inputs verwenden natürliche Sprache, funktionieren aber auch am besten, wenn sie Formate und Semantik einhalten, die von einem bestimmten KI-Modell bevorzugt werden. Aufgrund dieser unbefristeten Natur können Änderungen im Prompt-Engineering aufgrund von Trial-and-Error-Sprachverbesserungen schneller sein als beim Verfeinern oder Debuggen von Code. Diese Änderungen erzielen jedoch möglicherweise nicht die genauen Ergebnisse, die bei wiederholbaren Codeprozessen gefunden werden.
