Dienstag, 20. Februar 2024

HANSEMACHINE: Prompt Engineering - Mit besseren Prompts zu viel besseren Ergebnissen

 HANSE DIGITAL GASTBEITRAG


"Künstliche Intelligenz ist derzeit noch ein Nischenphänomen. Lediglich acht Prozent fühlen sich mit der Technologie vertraut."

Nils Andres, Gründer und Geschäftsführer des Brand Science Institute 
sowie Initiator von BSI AI in Hamburg


Digitaler Eyecatcher generiert von einem KI-Sprachmodell
KI-Creator: Julius H. aus Niedersachsen, via Pixabay

Seit wir mit Sprachmodellen wie ChatGPT arbeiten, ist die Eingabe der richtigen Anweisungen eine hohe Kunst. Ein guter "Prompt" macht den Unterschied und kann entweder ein hervorragendes oder ein unbrauchbares Ergebnis liefern. "Prompt Engineering“ optimiert die Interaktion mit der Künstlichen Intelligenz (KI) durch präzise Eingabeaufforderungen. Ein ganz neues Berufsfeld entsteht.

KIs verstehen inzwischen natürliche Sprache – das ist einerseits faszinierend und großartig, andererseits stellt es uns vor neue Herausforderungen: Wie formuliere ich meinen Prompt, damit  das herauskommt, was ich wirklich brauche? Oliver Welling hat 1987 den ersten Chatbot ausprobiert - und ist heute mit den KINEWS24.de einer der führenden Publizisten in einem der spannendsten Technologie-Themen des Jahres.

Der schleswig-holsteinische KI-Experte zeigt uns den Weg zu richtig guten Ergebnissen mit Aleph Alpha, ChatGPT, Google Gemini, Microsoft Copilot und Neuroflash aus Hamburg:

Grundlagen für erfolgreiche Ergebnisse mit KI-Sprachmodellen

Die Klarheit:

Ich behaupte: Mit wenigen Grundregeln kann man deutlich bessere Ergebnisse erzielen. Klarheit und Präzision sind dabei das A und O, heißt: Vermeide Mehrdeutigkeiten, um relevante Antworten zu erhalten. So kann man die Entwicklung von Texteingaben in KI-Sprachmodelle auf den Punkt bringen. Dazu ein erstes Beispiel: Ich leide unter der Kurzlebigkeit meines Handy-Akkus und frage das Sprachmodell um Rat:

Ein schlechter Prompt: „Wie mache ich es, dass mein Handy-Akku länger läuft?“. Dieser Prompt ist nicht spezifisch, sagt nicht, um welches Gerät es sich handelt und „besser machen“ ist eine ziemlich offene Frage.

Unser guter Prompt: „Wie kann ich die Akkulaufzeit meines (Smartphone-Typs) bei täglicher Nutzung so optimieren, dass ich nicht mittags erneut laden muss?“. Dieser Prompt ist klar und präzise. Er adressiert ein spezifisches Problem (Optimierung der Akku-Laufzeit des (Smartphone-Typs) und definiert ein Ziel (Vermeidung einer Zwischenladung am Mittag).

Der Kontext:

Dabei gilt wie bei einer Unterhaltung im normalen Leben: Auf den Kontext kommt es an: Die Einbeziehung der näheren Umstände oder des Hintergrunds für meine Frage verbessert das Verständnis des KI-Modells für die Anfrage. In meinem Beispiel geht es um die Verbesserung der Social-Media-Präsenz eines Startups:

Ein schlechter Prompt: „Wie verbessere ich unsere Social-Media“? Hier gibt es keinen Kontext, der mitteilt um, was für ein Unternehmen es sich handelt und kein erklärtes Ziel oder klare Zielgruppen für die nötige Verbesserung.

Unser guter Prompt: „Welche Strategien können für ein Startup im Bereich nachhaltiger Technologien für unseren Social-Media-Account bei LinkedIn in den nächsten sechs Monaten genutzt werden?“


Hier gibt es eine spezifische Aussage zum Unternehmen, ebenso wird der Ziel-Kanal benannt und ein Zeitraum definiert – damit sollte eine maßgeschneiderte Antwort des Sprachmodells ermöglicht werden. Um nichts Wichtiges zu vergessen, helfen die W-Fragen im Leben: Wer? Was? Wann? Wo? Wie? Weshalb bzw. Warum? und Woher? So bekommt auch jeder Journalist jedes Thema "rund".


Die Zielstellung:

Nicht zu vernachlässigen ist eine klare Zielstellung: Wofür möchte ich das Ganze nutzen? So kann die Generative KI zielsicher vorschlagen, was uns helfen kann - z. B. in der Ausbildung, im Beruf oder im Privatleben. Und schon liefern uns ChatGPT, Neuroflash & Co. bessere Ergebnisse. Definiere also klar das Ziel der Anfrage, um zielgenaue Antworten zu erhalten. Hier mein Beispiel:

Ein schlechter Prompt: „Gib mir Tipps“ – natürlich viel zu vage, ohne Ziel und ohne Angabe – kann jede Antwort so richtig wie falsch werden. Die KI weiß nicht, ob sie nach links, nach rechts oder geradeaus laufen muss.

Unser guter Prompt: „Erstelle eine Liste von fünf effektiven Zeitmanagement-Techniken für Fernstudierende, die nebenbei in Teilzeit arbeiten.“ Dieser Prompt ist zielorientiert und präzise, hat eine klare Zielgruppe und definiert eine Aufgabe. Die Freude über die Ergebnisse ist sicher.


Die Kreativität:

Kommen wir zu einem besonders interessanten Thema: der Kreativität. Hier gilt für sehr gute Ergebnisse des eingesetzten KI-Sprachmodells ein simpler Grundsatz. Offene Fragestellungen fördern originelle Antworten. Wer geschlossen fragt, bekommt im Zweifelsfall ein "Ja" oder Nein", wenn die KI einen schlechten Tag hat.

Ein schlechter Prompt: „Gib mir Infos über Zeitreisen“. Dieser Prompt ist zwar offen, aber zu unspezifisch und bietet keine kreative Herausforderung oder Zielrichtung. Die Ergebnisse von Copilot, Gemini & Co. können von Wikipedia-Einträgen bis zu Google Suchergebnissen reichen - suboptimal ...

Unser guter Prompt: „Entwirf eine Geschichte, in der ein Zeitreisender versehentlich das Internet des 21. Jahrhunderts in das antike Griechenland bringt und die Auswirkungen auf die Gesellschaft beschreibt.“ Mit der Vorgabe einer ungewöhnlichen Situation kann es eine Vielzahl von möglichen Antworten geben – dieser Prompt ermutigt zur Kreativität, gibt aber genauso einen klaren Handlungsrahmen vor. 


Wenn man die vier Grundregeln zu Präzision, Kontext, Zielstellung und Kreativität befolgt, kann man sichtbar erleben, wie das Sprachmodell deutlich bessere Ergebnisse liefert.

Diese KI-Sprachmodelle mussten sich schon einige Prompts ansehen ...
KI-Creator: Alexandra Koch, via Pixabay 

Ein paar weitere, praktische Tipps für noch bessere Ergebnisse:
  • Integriere eindeutige, relevante Keywords
Ein Beispiel: Du möchtest Informationen über die besten Praktiken für nachhaltige Landwirtschaft finden.

Weniger effektiv: "Wie kann ich Landwirtschaft betreiben?"

Viel effektiver: "Was sind die besten Praktiken für nachhaltige Landwirtschaft im urbanen Raum?"

Das Integrieren von Keywords wie "nachhaltige Landwirtschaft" und "urbaner Raum" hilft dem Modell, den Fokus der Anfrage zu verstehen und relevante Informationen bereitzustellen.

  • Nutze Follow-up-Fragen für die Präzision
Beispiel: Du hast eine allgemeine Antwort auf eine Frage zur Programmierung erhalten und benötigst spezifischere Details.

Erste Frage: "Wie schreibe ich eine Schleife in Python?"

Follow-up-Frage: "Kannst du ein Beispiel für eine for-Schleife geben, die eine Liste von Zahlen in Python durchläuft?"

Durch die Nutzung von Follow-up-Fragen kannst du die Genauigkeit der Informationen erhöhen, indem du das Thema schrittweise einschränkst.

  • Experimentiere mit verschiedenen Formulierungen
Beispiel: Du suchst nach Möglichkeiten, Stress zu reduzieren.

Erste Formulierung: "Wie reduziere ich Stress?"

Alternative Formulierung: "Welche Techniken sind effektiv zur Entspannung und Stressbewältigung?"

Durch das Experimentieren mit verschiedenen Formulierungen kannst du herausfinden, welche Art der Fragestellung die nützlichsten Antworten hervorbringt.

  • Gib klare Anweisungen bei kreativen Aufgaben
Beispiel: Du möchtest, dass das Modell eine Geschichte über einen Drachen und einen Ritter aus einer ungewöhnlichen Perspektive schreibt.

Weniger klar: "Schreib eine Geschichte über einen Drachen und einen Ritter."

Deutlich klarer: "Schreib eine Kurzgeschichte, in der der Drache der Held ist und der Ritter das Königreich bedroht. Nutze eine humorvolle Sprache und integriere eine unerwartete Wendung."

Mit diesen Tipps und den oben genannten Grundregeln hat man das passende Werkzeug für viel bessere Ergebnisse.


Das KI-Sprachmodell ist nur so gut, wie der Nutzer vor dem Schirm.
KI-Creator: Franz Bachinger, via Pixabay


Doch hier hört die Kunst nicht auf, denn Sprachmodelle sind in der Lage, ganz spezifische Rollen einzunehmen (z. B. als Social-Media-Manager, Texter, Lehrer, technischer Berater, Historiker, Fitnesscoach, Reiseplaner, Koch uvm.). Die Rolle, die man dem Sprachmodell im Prompt zuweist, ermöglicht über die genannten Optionen hinaus noch mehr aus den Modellen herauszukitzeln. Die Möglichkeiten sind umfangreich.

Die Tonalität spielt eine weitere entscheidende Rolle, da sie den emotionalen Unterton und die Stimmung der Antworten beeinflusst. Wir können die gewünschte Tonalität direkt in den Prompts eingeben, um die Art der Interaktion zu steuern. Mit der Bitte um eine „formelle, informelle, humorvolle oder ernste Antwort“ bestimmen wir das Ergebnis.

Prompt-Engineering folgt in Summe verschiedenen Regeln und es gibt jedem Nutzer die Möglichkeit, ganz individuell zu bestimmen, was am Ende aus dem Sprachmodell herauskommt. Es ist keine Fähigkeit, die man nur intellektuell lösen kann – es braucht auch Versuch und Irrtum. Auch „falsche Prompts“ und das Herausfinden eines „passenden Prompts“ kann viel Spaß machen – und mit jedem Prompt wird man selbst besser.


Die KI-Entwicklung ist extrem dynamisch – heute geben wir Prompts ein und diese steuern das Ergebnis – zukünftig werden wir sehr wahrscheinlich mit KIs in Form von Avataren sprechen. Die notwendige Technik ist bereits da. Klar, eindeutig und zielorientiert – wie im echten Leben – führt zu den besten Ergebnissen - auch im Austausch mit einer KI. In diesem Sinne: Viel Glück und Erfolg!

Bis zu 35% aller Marketingbudgets werden durch Einsatz von KI in Zukunft gespart!

Umfrage unter rd. 300 Marketing-Verantwortlichen zum Einsatz von Künstlicher Intelligenz
BSI AG, BSI AI, Januar 2024


Über KI-Experte und Publizist Oliver Welling:

Foto: Oliver Welling, privat
Oliver Welling hat digitale DNA im Blut: Heute 56, hatte Oliver bereits mit 14 den ersten PC. Den ersten Chatbot hat Oliver schon 1987 mit "ELIZA" kennengelernt. Die Faszination für IT und digitale Wirtschaft mündete in der Gründung der Digital-Agentur "Spot-Media", die Oliver als Vorstandsvorsitzender führte und 2008 verkaufte. Seitdem hat er strategische Unternehmensberatung im deutschen Mittelstand durchgeführt. 


Als Kurator des "Reeperbahnfestivals" konnte er das Thema Künstliche Intelligenz nicht nur in Hamburg weiter vorantreiben. Als Gründer der KINEWS24.de berichtet er täglich über aktuelle News und die besten Tools auf dem Markt. Heute berät er mittelständische Unternehmen beim Einsatz von KI zur Steigerung von Effizienz, hält Vorträge über das Thema und hilft Unternehmen die eigene KI-Strategie zu entwickeln.

 Hanse Digital Service: 


Die KINEWS24 im Netz:

*  *  *

Keine Kommentare:

Kommentar veröffentlichen