Inhaltsverzeichnis
Weiter geht es mit den KI-Basics einfach erklärt! In dieser Blogserie erklären wir die wichtigsten Buzzwords rund um KI und Sprachmodelle verständlich auch für Einsteiger.
Im ersten Teil haben wir uns mit dem Begriff KI beschäftigt, sind auf große und kleine Sprachmodelle (LLM vs. SLM) eingegangen und haben geklärt, was das Kürzel „GPT“ in ChatGPT eigentlich bedeutet.
Diesmal geht es wie versprochen um das Thema Prompting. Wir klären, was Prompts sind, was Prompt Engineering bedeutet und warum zusätzlicher Informationskontext beim Erstellen von Prompts hilfreich ist (Stichwort „In-Context-Learning“).
Prompting – Die Kunst der richtigen Anweisungen
Was ist ein Prompt?
Mit ChatGPT haben Sie vielleicht das erste Mal das Gefühl, mit einer Maschine über unsere natürliche Sprache kommunizieren zu können, also ohne eine spezielle Programmiersprache verwenden zu müssen. Die Anfrage, die man an die KI schreibt, nennt sich Prompt. Er enthält etwa eine Frage, eine Aufgabenstellung oder weiteren Kontext zur Aufgabe.
Diese Art von Prompt wird als User-Prompt bezeichnet. Neben dem User-Prompt gibt es auch noch den System-Prompt. Ein System-Prompt enthält Voreinstellungen, die das Verhalten der KI steuern, wie beispielsweise Rollenbeschreibungen und Eigenschaften („Du bist eine freundliche Lehrkraft, …“), aber auch Fähigkeiten („… die Dinge kindgerecht erklären kann“).
Benutzt man ein KI-Tool ganz normal im Web oder als App (man kann es auch über eine Programmschnittstelle ansprechen), wirkt dieser System-Prompt bei jedem neuen Chatfenster automatisch im Hintergrund, ist also vor den Usern verborgen. Wenn man die KI dann bittet, in einer bestimmten Art und Weise zu antworten, wird der System-Prompt gewissermaßen erweitert. Es ist also auch im User-Prompt möglich, das Antwortverhalten von ChatGPT und Co. anzupassen. Hier kommt dann das sogenannte Prompt Engineering ins Spiel.
Prompt Engineering: Die richtige Anfrage macht den Unterschied
Wer schon einmal selbst mit konversationellen KI-Anwendungen (Chatbot oder KI-Assistent) interagiert hat, wird sicher festgestellt haben, dass es manchmal gar nicht so leicht ist, die Antwort in der Form zu bekommen, die man sich erhofft hat. Auch wenn konversationelle KI-Anwendungen immer besser darin werden, unsere Anfragen richtig zu interpretieren, machen oft Feinheiten in der Formulierung und der generelle Aufbau beim Erstellen des Prompts den entscheidenden Unterschied. Dadurch hat sich eine neue Disziplin entwickelt: das Prompt Engineering.
Beim Prompt Engineering geht es darum, Prompts so zu formulieren, dass die KI optimale Ergebnisse liefert. Durch bestimmte Techniken kann man die Ausgabe gezielt steuern. Dazu gehört die richtige Aufteilung des Prompts in Aufgabe, Kontext und Beispiele, aber auch das Vermeiden von Zweideutigkeit.
Da schon leichte Variationen in Prompts zu unterschiedlichen Ergebnissen führen können, ist es beim produktiven Einsatz von KI in Technischen Redaktionen wichtig, die Prompts zu standardisieren. Mit einem Prompt-Leitfaden könnt ihr regeln, wie generative KI in der Technischen Redaktion eingesetzt wird und wie Prompts standardisiert geschrieben werden.
Es gibt noch viele weitere Aspekte, die beim Erstellen von Prompts zu beachten sind. Wenn Sie mehr darüber wissen möchten und lernen wollen, laden wir Sie herzlich zu unserem PowerWebinar „Prompt Engineering für die Technische Redaktion“ ein.
In-Context Learning: Lernen ohne Training
Eine Technik beim Prompt Engineering ist das sogenannte In-Context Learning. Man kann es verwenden, wenn die Ausgabe der konversationellen KI nicht zufriedenstellend ist oder man ein ganz bestimmtes Ausgabeformat erwartet. Man zeigt der KI dann Beispiele im Prompt, um bessere Antworten zu erhalten.

Mit In-Context-Learning erkennt die KI im aktuellen Gespräch das erwartete Ausgabeformat und passt sich entsprechend an.
Die KI verändert dabei nicht ihr zugrundeliegendes Sprachmodell (vgl. Pre-Training in Teil I dieser Blogserie), sondern erhält lediglich temporäre Anweisungen für die aktuelle Aufgabe. Genauer gesagt wird die Vorhersagewahrscheinlichkeit für die Generierung eines Antworttextes in der gewünschten Form erhöht. In-Context-Learning wirkt also wie ein temporäres Gedächtnis für die KI – wie ein Spickzettel, der nur für das aktuelle Gespräch gilt.
Hier haben wir der KI mehrere Beispiele für das Bearbeiten der Aufgabe mitgegeben. Es reicht aber auch manchmal nur ein Beispiel. Und damit kommen wir zu den nächsten Begriffen.
One-Shot oder Few-Shot: Wie viel Beispiel darf es sein?
Vielleicht sind Ihnen auch schon die Begriffe One-Shot-Prompting und Few-Shot-Prompting begegnet. Sie beziehen sich lediglich auf die Anzahl der Beispiele, die der Prompt enthält:
- One-Shot-Prompting – ein einzelnes Beispiel reicht aus.
- Few-Shot-Prompting – mehrere Beispiele verbessern die Antwortqualität.
Die Übersetzungsaufgabe oben ist ein einfaches Beispiel für Few-Shot-Prompting. One-Shot-Prompting würde man vielleicht eher verwenden, wenn man etwa einen längeren Textabschnitt umformulieren oder in strukturierten Text (als Beispiel XML) überführen möchte. Schauen wir uns das als Beispiel an:

One-Shot-Prompt: Durch das Beispiel lernt die KI, wie sie Produktdaten aus einem Text in eine XML-Struktur umwandelt
Durch das Beispiel lernt die KI, welche Kenndaten wie ausgezeichnet werden sollen und kann das Auszeichnungsschema aus dem Beispiel auf die Kenndaten für den Haartrockner anwenden, statt sie vielleicht einfach nur als Liste oder Fließtext auszugeben. Die KI funktioniert hier wie ein Übersetzer, der eine Sprache (Fließtext) in eine andere (strukturiertes XML) umwandelt – sie erkennt das Muster und wendet es auf neue Inhalte an.
Vielleicht erkennen Sie hier auch schon einen Anwendungsfall für Ihre Technische Redaktion? Variationen sind natürlich möglich. Die Ausgabe kann z. B. auch als Tabelle oder in anderen Formaten erfolgen.
Recap & Ausblick
In diesem Teil unserer Serie KI-Basics einfach erklärt haben wir uns mit Prompts, dem Prompt Engineering und dem In-Context-Learning befasst. Sie wissen nun auch, wie wichtig bestimmte Techniken beim Erstellen des Prompts sind, um ein gutes Ergebnis zu erhalten.
Im nächsten Teil geht es um das Erweitern der Leistungsfähigkeit von Sprachmodellen (vgl. Teil I unserer Blogserie) ohne aufwendiges und teures Training. Wir klären, was ein Knowledge-Graph ist, was man unter Retrieval-Augmented Generation (RAG) versteht und was Agenten mit KI zu tun haben.
FAQ
Ein Prompt ist die Anfrage, die man an eine KI wie ChatGPT richtet. Er kann eine einfache Frage, eine komplexe Aufgabenstellung oder zusätzlichen Kontext zur Aufgabe enthalten. Prompts ermöglichen die Kommunikation mit KI-Systemen in natürlicher Sprache, ohne Programmiersprache verwenden zu müssen.
Prompt Engineering ist die Kunst, Anfragen an KI so zu formulieren, dass optimale Ergebnisse erzielt werden. Durch bestimmte Techniken wie die richtige Aufteilung des Prompts in Aufgabe, Kontext und Beispiele sowie das Vermeiden von Zweideutigkeit kann die Ausgabe gezielt gesteuert werden.
In-Context Learning ist eine Technik, bei der man der KI im Prompt Beispiele zeigt, um bessere oder spezifisch formatierte Antworten zu erhalten. Die KI lernt im aktuellen Gesprächskontext, ohne ihr Grundmodell zu verändern – wie ein temporäres Gedächtnis nur für das laufende Gespräch.
One-Shot-Prompting bedeutet, dass ein einzelnes Beispiel ausreicht, um der KI die gewünschte Ausgabeform zu zeigen. Bei Few-Shot-Prompting werden mehrere Beispiele verwendet, was die Antwortqualität verbessern kann. Die Wahl hängt von der Komplexität der Aufgabe ab.
Die Formulierung eines Prompts entscheidet maßgeblich über die Qualität der KI-Antwort. Selbst kleine Feinheiten in der Wortwahl und der Struktur können den Unterschied ausmachen. Mit gezielten Formulierungen lässt sich die KI steuern, sodass sie genau die Informationen liefert, die man benötigt.