top of page
Lösungen
Branchen
Insights
Warum arago?

MENÜ

AutorenbildDaniel Stöckel

KI-Hacks: Wie Sie mit Prompt Engineering brillante Antworten erzielen

Ein bekanntes Sprichwort sagt: »Aus einem Esel macht man noch lange kein Rennpferd«. Dass aus einem Rennpferd kein Esel wird, dafür sorgt das sogenannte Prompt Engineering.


Genau gesagt geht es bei Prompt Engineering darum, die Fragen und Anweisungen an ein KI-Sprachmodell, wie beispielsweise ChatGPT, so zu formulieren, dass diese möglichst genaue und relevante Ergebnisse generieren.


OpenAI, der Anbieter von ChatGPT, hat vor kurzem eine Richtlinie mit den 6 wichtigsten Strategien für bessere Antwortergebnisse veröffentlicht. Wir fassen sie in sehr kompakter Form zusammen. In aller Ausführlichkeit können Sie die Tipps und Tricks unter https://platform.openai.com/docs/guides/prompt-engineering abrufen.


Tipp 1:

Formulieren Sie klare Anweisungen und Fragestellungen


KI-Sprachmodelle können beeindruckend viel. Sie können aber (glücklicherweise) keine Gedanken lesen, auch die Ihrigen nicht. Liefern Sie in Ihrer Fragestellung daher so viel Kontext wie nötig, damit sie eine so passende Antwort wie möglich erhalten. In welchem Sprachstil soll die Antwort formuliert sein? In welcher Länge? Wünschen Sie einen Fließtext als Antwort oder Stichpunkte?


Tipp 2:

Stellen Sie einen Spickzettel zur Verfügung


Wenn Sie ChatGPT nutzen, steht unter dem zentralen Eingabefeld der folgende, gerne ignorierte  Hinweis: »ChatGPT kann Fehler machen. Überprüfen Sie wichtige Informationen.«


Sprachmodelle können falsche Antworten erfinden, insbesondere wenn es um Zitate und URLs geht. Und sie machen von dieser Fähigkeit auch Gebrauch.


Wenn Sie dem KI-Modell eigene, vertrauenswürdige Informationen bereitstellen, die relevant für Ihre aktuelle Anfrage sind, übernehmen diese Informationen dieselbe Funktion, die ein Spickzettel für einen Schüler während einer Klassenarbeit hat. Sie helfen dem Modell dabei, die Qualität der Antwort zu verbessern.


Tipp 3:

Machen Sie es wie Henry Ford: Unterteilen Sie komplexe Aufgabestellungen in einfachere Teilaufgaben


Auch an dieser Stelle unterscheidet sich die KI des Sprachmodells nicht allzu sehr von der menschlichen. Je komplexer und umfangreicher eine Aufgabe ist, desto höher die Fehlerquote. Die Empfehlung lautet daher, sequentiell vorzugehen, wie beim Autobau. Formulieren Sie eine Teilaufgabe. Ist diese zu Ihrer Zufriedenheit erledigt, setzen Sie darauf auf, um die nächste Teilaufgabe anzugehen. Das machen Sie schrittweise so lange, bis die komplexe Aufgabe in Gänze erledigt ist.


Tipp 4:

Geben Sie dem Modell Zeit, »nachzudenken«


Es klingt ein wenig verrückt, aber im Februar 2024 lassen sich die KI-Sprachmodelle durchaus noch aufs Glatteis führen. Sie machen »Denkfehler«, insbesondere dann, wenn sie versuchen, direkt zu antworten, anstatt sich die Zeit zu nehmen, eine Antwort auszuarbeiten. Bitten Sie daher bei der Formulierung Ihrer Aufgabenstellung explizit darum, dass der Antwort eine »Denkkette« vorausgeht. Die KI-Lösung soll eine eigene Lösung ausarbeiten, bevor sie zu einem Schluss gelangt.


Er lächelt, sieht aber auch irgendwie leicht verzweifelt aus, unser kleiner Freund, den wir mithilfe der KI von midjourney zum Leben erweckt haben. Das Thema Prompt Engineering kann einen wichtigen Beitrag leisten, dass die Verzweiflung weicht und sich Mensch und Maschine künftig noch besser verstehen.


Und fragen sie das Sprachmodell, ob es bei vorherigen Durchläufen möglicherweise etwas übersehen hat.


Tipp 5:

Verwenden Sie externe Werkzeuge


Bei KI-Sprachmodellen handelt es sich um ein tolles, faszinierendes, nach wie vor neuartiges Werkzeug. Das bedeutet aber nicht, dass andere, ältere, bereits bewährte Werkzeuge ihre Relevanz eingebüßt haben. Eine Code-Ausführungsengine wie der Code Interpreter von Open AI kann dem Modell bei mathematischen Berechnungen und der Ausführung von Code helfen. Nutzen Sie diese Werkzeuge weiterhin.


Tipp 6:

Testen, testen, testen …


… und vor allen Dingen systematisch testen. Evaluieren Sie die Ausgabeergebnisse der Sprachmodelle. Sind Sie damit zufrieden? Lässt sich durch eine veränderte Fragestellung ein besseres Ergebnis erzielen? Und ist das Ergebnis insgesamt besser oder nur in einzelnen Teilbereichen? Eventuell ist es sinnvoll, verschiedene Antworten miteinander zu kombinieren.


Ist Perplexity besser als ChatGPT und google?


Im Jahr 2022 wurde im Silicon Valley, wo auch sonst, eine weitere KI-Sprachassistenzlösung gegründet, das Startup Perplexity.ai. Die Lösung greift, anders als die kostenfreie Version von ChatGPT, auf den aktuellen Internet-Datenbestand zurück, d.h. Perplexity wird Ihnen die aktuellen Ergebnisse der Fußball-Bundesliga und die Wetterprognose der kommenden Woche nennen.


Im Gegensatz zu ChatGPT listet Perplexity die Quellen seiner Aussagen auf und verlinkt auf diese. Zudem unterstützt ein AI-Assistent (die Copilot-Funktion) bei umfangreichen Recherchen und stellt auch Rückfragen. Eine weitere interessante Funktion ist die Eingrenzung der Suchergebnisse auf Wissenschaftliche Arbeiten, eine Videosuche in Youtube oder die Generierung eines Textes ohne Einbeziehung des Webs.


Perplexity ist sprachlich nicht so eloquent und ausgefeilt wie ChatGPT, aufgrund seiner zahlreichen anderen Vorteile aber eine interessante. empfehlenswerte Alternative. Selbst ausprobieren können Sie Perplexity unter https://www.perplexity.ai/


Noch aufgeräumter als google und ohne Werbeanzeigen: Das Eingabefeld von Perplexity


36 Ansichten0 Kommentare

Aktuelle Beiträge

Alle ansehen

Comments


bottom of page