Posts mit dem Label Prompting werden angezeigt. Alle Posts anzeigen
Posts mit dem Label Prompting werden angezeigt. Alle Posts anzeigen

Dienstag, 20. Februar 2024

HANSEMACHINE: Prompt Engineering - Mit besseren Prompts zu viel besseren Ergebnissen

 HANSE DIGITAL GASTBEITRAG


"Künstliche Intelligenz ist derzeit noch ein Nischenphänomen. Lediglich acht Prozent fühlen sich mit der Technologie vertraut."

Nils Andres, Gründer und Geschäftsführer des Brand Science Institute 
sowie Initiator von BSI AI in Hamburg


Digitaler Eyecatcher generiert von einem KI-Sprachmodell
KI-Creator: Julius H. aus Niedersachsen, via Pixabay

Seit wir mit Sprachmodellen wie ChatGPT arbeiten, ist die Eingabe der richtigen Anweisungen eine hohe Kunst. Ein guter "Prompt" macht den Unterschied und kann entweder ein hervorragendes oder ein unbrauchbares Ergebnis liefern. "Prompt Engineering“ optimiert die Interaktion mit der Künstlichen Intelligenz (KI) durch präzise Eingabeaufforderungen. Ein ganz neues Berufsfeld entsteht.

KIs verstehen inzwischen natürliche Sprache – das ist einerseits faszinierend und großartig, andererseits stellt es uns vor neue Herausforderungen: Wie formuliere ich meinen Prompt, damit  das herauskommt, was ich wirklich brauche? Oliver Welling hat 1987 den ersten Chatbot ausprobiert - und ist heute mit den KINEWS24.de einer der führenden Publizisten in einem der spannendsten Technologie-Themen des Jahres.

Der schleswig-holsteinische KI-Experte zeigt uns den Weg zu richtig guten Ergebnissen mit Aleph Alpha, ChatGPT, Google Gemini, Microsoft Copilot und Neuroflash aus Hamburg:

Grundlagen für erfolgreiche Ergebnisse mit KI-Sprachmodellen

Die Klarheit:

Ich behaupte: Mit wenigen Grundregeln kann man deutlich bessere Ergebnisse erzielen. Klarheit und Präzision sind dabei das A und O, heißt: Vermeide Mehrdeutigkeiten, um relevante Antworten zu erhalten. So kann man die Entwicklung von Texteingaben in KI-Sprachmodelle auf den Punkt bringen. Dazu ein erstes Beispiel: Ich leide unter der Kurzlebigkeit meines Handy-Akkus und frage das Sprachmodell um Rat:

Ein schlechter Prompt: „Wie mache ich es, dass mein Handy-Akku länger läuft?“. Dieser Prompt ist nicht spezifisch, sagt nicht, um welches Gerät es sich handelt und „besser machen“ ist eine ziemlich offene Frage.

Unser guter Prompt: „Wie kann ich die Akkulaufzeit meines (Smartphone-Typs) bei täglicher Nutzung so optimieren, dass ich nicht mittags erneut laden muss?“. Dieser Prompt ist klar und präzise. Er adressiert ein spezifisches Problem (Optimierung der Akku-Laufzeit des (Smartphone-Typs) und definiert ein Ziel (Vermeidung einer Zwischenladung am Mittag).

Der Kontext:

Dabei gilt wie bei einer Unterhaltung im normalen Leben: Auf den Kontext kommt es an: Die Einbeziehung der näheren Umstände oder des Hintergrunds für meine Frage verbessert das Verständnis des KI-Modells für die Anfrage. In meinem Beispiel geht es um die Verbesserung der Social-Media-Präsenz eines Startups:

Ein schlechter Prompt: „Wie verbessere ich unsere Social-Media“? Hier gibt es keinen Kontext, der mitteilt um, was für ein Unternehmen es sich handelt und kein erklärtes Ziel oder klare Zielgruppen für die nötige Verbesserung.

Unser guter Prompt: „Welche Strategien können für ein Startup im Bereich nachhaltiger Technologien für unseren Social-Media-Account bei LinkedIn in den nächsten sechs Monaten genutzt werden?“


Hier gibt es eine spezifische Aussage zum Unternehmen, ebenso wird der Ziel-Kanal benannt und ein Zeitraum definiert – damit sollte eine maßgeschneiderte Antwort des Sprachmodells ermöglicht werden. Um nichts Wichtiges zu vergessen, helfen die W-Fragen im Leben: Wer? Was? Wann? Wo? Wie? Weshalb bzw. Warum? und Woher? So bekommt auch jeder Journalist jedes Thema "rund".


Die Zielstellung:

Nicht zu vernachlässigen ist eine klare Zielstellung: Wofür möchte ich das Ganze nutzen? So kann die Generative KI zielsicher vorschlagen, was uns helfen kann - z. B. in der Ausbildung, im Beruf oder im Privatleben. Und schon liefern uns ChatGPT, Neuroflash & Co. bessere Ergebnisse. Definiere also klar das Ziel der Anfrage, um zielgenaue Antworten zu erhalten. Hier mein Beispiel:

Ein schlechter Prompt: „Gib mir Tipps“ – natürlich viel zu vage, ohne Ziel und ohne Angabe – kann jede Antwort so richtig wie falsch werden. Die KI weiß nicht, ob sie nach links, nach rechts oder geradeaus laufen muss.

Unser guter Prompt: „Erstelle eine Liste von fünf effektiven Zeitmanagement-Techniken für Fernstudierende, die nebenbei in Teilzeit arbeiten.“ Dieser Prompt ist zielorientiert und präzise, hat eine klare Zielgruppe und definiert eine Aufgabe. Die Freude über die Ergebnisse ist sicher.


Die Kreativität:

Kommen wir zu einem besonders interessanten Thema: der Kreativität. Hier gilt für sehr gute Ergebnisse des eingesetzten KI-Sprachmodells ein simpler Grundsatz. Offene Fragestellungen fördern originelle Antworten. Wer geschlossen fragt, bekommt im Zweifelsfall ein "Ja" oder Nein", wenn die KI einen schlechten Tag hat.

Ein schlechter Prompt: „Gib mir Infos über Zeitreisen“. Dieser Prompt ist zwar offen, aber zu unspezifisch und bietet keine kreative Herausforderung oder Zielrichtung. Die Ergebnisse von Copilot, Gemini & Co. können von Wikipedia-Einträgen bis zu Google Suchergebnissen reichen - suboptimal ...

Unser guter Prompt: „Entwirf eine Geschichte, in der ein Zeitreisender versehentlich das Internet des 21. Jahrhunderts in das antike Griechenland bringt und die Auswirkungen auf die Gesellschaft beschreibt.“ Mit der Vorgabe einer ungewöhnlichen Situation kann es eine Vielzahl von möglichen Antworten geben – dieser Prompt ermutigt zur Kreativität, gibt aber genauso einen klaren Handlungsrahmen vor. 


Wenn man die vier Grundregeln zu Präzision, Kontext, Zielstellung und Kreativität befolgt, kann man sichtbar erleben, wie das Sprachmodell deutlich bessere Ergebnisse liefert.

Diese KI-Sprachmodelle mussten sich schon einige Prompts ansehen ...
KI-Creator: Alexandra Koch, via Pixabay 

Ein paar weitere, praktische Tipps für noch bessere Ergebnisse:
  • Integriere eindeutige, relevante Keywords
Ein Beispiel: Du möchtest Informationen über die besten Praktiken für nachhaltige Landwirtschaft finden.

Weniger effektiv: "Wie kann ich Landwirtschaft betreiben?"

Viel effektiver: "Was sind die besten Praktiken für nachhaltige Landwirtschaft im urbanen Raum?"

Das Integrieren von Keywords wie "nachhaltige Landwirtschaft" und "urbaner Raum" hilft dem Modell, den Fokus der Anfrage zu verstehen und relevante Informationen bereitzustellen.

  • Nutze Follow-up-Fragen für die Präzision
Beispiel: Du hast eine allgemeine Antwort auf eine Frage zur Programmierung erhalten und benötigst spezifischere Details.

Erste Frage: "Wie schreibe ich eine Schleife in Python?"

Follow-up-Frage: "Kannst du ein Beispiel für eine for-Schleife geben, die eine Liste von Zahlen in Python durchläuft?"

Durch die Nutzung von Follow-up-Fragen kannst du die Genauigkeit der Informationen erhöhen, indem du das Thema schrittweise einschränkst.

  • Experimentiere mit verschiedenen Formulierungen
Beispiel: Du suchst nach Möglichkeiten, Stress zu reduzieren.

Erste Formulierung: "Wie reduziere ich Stress?"

Alternative Formulierung: "Welche Techniken sind effektiv zur Entspannung und Stressbewältigung?"

Durch das Experimentieren mit verschiedenen Formulierungen kannst du herausfinden, welche Art der Fragestellung die nützlichsten Antworten hervorbringt.

  • Gib klare Anweisungen bei kreativen Aufgaben
Beispiel: Du möchtest, dass das Modell eine Geschichte über einen Drachen und einen Ritter aus einer ungewöhnlichen Perspektive schreibt.

Weniger klar: "Schreib eine Geschichte über einen Drachen und einen Ritter."

Deutlich klarer: "Schreib eine Kurzgeschichte, in der der Drache der Held ist und der Ritter das Königreich bedroht. Nutze eine humorvolle Sprache und integriere eine unerwartete Wendung."

Mit diesen Tipps und den oben genannten Grundregeln hat man das passende Werkzeug für viel bessere Ergebnisse.


Das KI-Sprachmodell ist nur so gut, wie der Nutzer vor dem Schirm.
KI-Creator: Franz Bachinger, via Pixabay


Doch hier hört die Kunst nicht auf, denn Sprachmodelle sind in der Lage, ganz spezifische Rollen einzunehmen (z. B. als Social-Media-Manager, Texter, Lehrer, technischer Berater, Historiker, Fitnesscoach, Reiseplaner, Koch uvm.). Die Rolle, die man dem Sprachmodell im Prompt zuweist, ermöglicht über die genannten Optionen hinaus noch mehr aus den Modellen herauszukitzeln. Die Möglichkeiten sind umfangreich.

Die Tonalität spielt eine weitere entscheidende Rolle, da sie den emotionalen Unterton und die Stimmung der Antworten beeinflusst. Wir können die gewünschte Tonalität direkt in den Prompts eingeben, um die Art der Interaktion zu steuern. Mit der Bitte um eine „formelle, informelle, humorvolle oder ernste Antwort“ bestimmen wir das Ergebnis.

Prompt-Engineering folgt in Summe verschiedenen Regeln und es gibt jedem Nutzer die Möglichkeit, ganz individuell zu bestimmen, was am Ende aus dem Sprachmodell herauskommt. Es ist keine Fähigkeit, die man nur intellektuell lösen kann – es braucht auch Versuch und Irrtum. Auch „falsche Prompts“ und das Herausfinden eines „passenden Prompts“ kann viel Spaß machen – und mit jedem Prompt wird man selbst besser.


Die KI-Entwicklung ist extrem dynamisch – heute geben wir Prompts ein und diese steuern das Ergebnis – zukünftig werden wir sehr wahrscheinlich mit KIs in Form von Avataren sprechen. Die notwendige Technik ist bereits da. Klar, eindeutig und zielorientiert – wie im echten Leben – führt zu den besten Ergebnissen - auch im Austausch mit einer KI. In diesem Sinne: Viel Glück und Erfolg!

Bis zu 35% aller Marketingbudgets werden durch Einsatz von KI in Zukunft gespart!

Umfrage unter rd. 300 Marketing-Verantwortlichen zum Einsatz von Künstlicher Intelligenz
BSI AG, BSI AI, Januar 2024


Über KI-Experte und Publizist Oliver Welling:

Foto: Oliver Welling, privat
Oliver Welling hat digitale DNA im Blut: Heute 56, hatte Oliver bereits mit 14 den ersten PC. Den ersten Chatbot hat Oliver schon 1987 mit "ELIZA" kennengelernt. Die Faszination für IT und digitale Wirtschaft mündete in der Gründung der Digital-Agentur "Spot-Media", die Oliver als Vorstandsvorsitzender führte und 2008 verkaufte. Seitdem hat er strategische Unternehmensberatung im deutschen Mittelstand durchgeführt. 


Als Kurator des "Reeperbahnfestivals" konnte er das Thema Künstliche Intelligenz nicht nur in Hamburg weiter vorantreiben. Als Gründer der KINEWS24.de berichtet er täglich über aktuelle News und die besten Tools auf dem Markt. Heute berät er mittelständische Unternehmen beim Einsatz von KI zur Steigerung von Effizienz, hält Vorträge über das Thema und hilft Unternehmen die eigene KI-Strategie zu entwickeln.

 Hanse Digital Service: 


Die KINEWS24 im Netz:

*  *  *

Mittwoch, 22. Februar 2023

HANSEMACHINE Bard, ChatGPT & Co.: Das geht mit den neuen KI-Chatbots in Marketing und Business.

HANSE KI MAGAZIN
Gastbeitrag von Raoul Plickat


ChatGPT wächst und wird kostenpflichtig:
Warum das gute Neuigkeiten sind – 
und wie die KI Marketing revolutionieren wird.

Mit ChatGPT haben viele Menschen erstmals bewusst Kontakt zu einer KI.
Foto: Gerd Altmann, Pixabay

ChatGPT, die fortschrittlichste KI-basierte Chatbot-Technologie, hat in den letzten Monaten ein rasantes Wachstum verzeichnet. Dass die KI in Zukunft kostenpflichtig werden soll, mag für viele zunächst enttäuschend klingen – es ist aber eine gute Nachricht für Unternehmen, die sich für die Zukunft des Marketings interessieren und ihren Markt dominieren wollen. 

Für professionelle Anwender ist das Tool aktuell teilweise unbenutzbar, ständig überlastet und wird mit minderwertigen Daten gefüttert“, verrät Raoul Plickat. Der Marketing-Profi hat sich auf Big Data und KI spezialisiert und weiß, welche Möglichkeiten ChatGPT mit sich bringt. In diesem Gastbeitrag verrät er, warum die Kostenpflichtigkeit von ChatGPT ein positives Signal für die Zukunft des Marketings ist und wie die Technologie bald im Marketing zum Einsatz kommen wird.

Analyse der Situation: Was ChatGPT und Co. leisten - und was nicht.

Schon jetzt bietet künstliche Intelligenz unzählige Möglichkeiten, die noch vor einigen Jahren unvorstellbar gewesen wären. So lassen sich etwa durch die Kombination mehrerer KI's nach Vorgabe eines Themas automatisch individuelle Titel, Texte sowie passende Bilder und damit ganze Power-Point-Präsentationen erstellen. 

Ebenso sind Helfer wie ChatGPT dazu in der Lage, persönliche Notizen zu ergänzen, E-Mails zu verfassen und Ideen für Skripte zu sammeln. Mit den richtigen Anweisungen können sie sogar Zeitungsartikel erstellen. Auf diese Weise vereinfachen KI's den Arbeitsalltag vieler Menschen. Eine der größten Stärken künstlicher Intelligenz ist also, dass Arbeitsabläufe durch sie automatisiert und damit sowohl effizienter als auch ertragreicher gestaltet werden können.

Zwar kann dadurch Manpower bis zu einem gewissen Grad ersetzt werden. All das soll jedoch nicht heißen, dass in Zukunft ganze Berufsgruppen verschwinden werden – sie werden lediglich kleiner, da einzelne Personen mithilfe der KI weitaus mehr Arbeiten erledigen können. Denn trotz aller Leistungsfähigkeit benötigen ChatGPT und Co. eine Person, die weiß, welchen Input sie ihr liefern muss, um beispielsweise einen detaillierten Marketingplan zu erhalten. 

Schließlich ist eine KI immer nur so smart wie der Mensch, der die Technologie für seine Zwecke nutzt. Um überzeugende Ergebnisse zu erzielen, muss man sich daher ausführlich mit der Thematik befasst haben. Somit werden die Resultate der KI wesentlich von der Qualität der Fragen und Anweisungen der Nutzer bestimmt. Doch selbst mit den besten Instruktionen liefern KI-Modelle in bestimmten Bereichen noch keine guten Ergebnisse. 

So können sie beispielsweise in der Architektur-Branche nicht dafür genutzt werden, die Inneneinrichtung von Gebäuden virtuell zu generieren und hierfür kreative Vorschläge zu machen. Allgemein sind sie nicht dazu in der Lage, komplexe Entwürfe, 3D-Modelle zu Vorführzwecken und Architekturzeichnungen zu erstellen. Die Automatisierung derartiger Arbeitsprozesse für diese und viele andere Berufsgruppen wäre also nur mit einem deutlich breiteren Leistungsspektrum möglich. 

Notwendigkeit von Weiterentwicklung und Qualitätssteigerung

Angesichts dieser Schwächen wird eines deutlich: Neben gutem Input braucht es eine stetige Weiterentwicklung - schließlich sind KI's offensichtlich noch nicht ausgereift und verlässlich genug, um in jedem Bereich sinnvoll eingesetzt werden zu können. So können sie trotz präziser Kommandos und fachgerechter Bedienung nicht immer brauchbare Ergebnisse liefern. Dass ChatGPT kostenpflichtig wird, zeigt allerdings, dass dieser Prozess durch finanzielle Mittel beschleunigt und weiterhin vorangetrieben werden soll.

Maßgeblichen Einfluss auf den Entwicklungsfortschritt von künstlicher Intelligenz nimmt dabei vor allem ein wegweisendes Konzept: Prompting. Durch diesen Bereich des maschinellen Lernens ist es ChatGPT und Co. möglich, spezifische Eingaben oder Informationen zur Lösung einer bestimmten Aufgabe zu nutzen. Sogenannte Prompts bestehen meist aus Text- oder Codefragmenten und helfen dem jeweiligen KI-Modell, eine spezifische Ausgabe zu generieren, ohne dass es jedes Detail aus den Trainingsdaten selbst herausfinden muss. Somit tragen klare Anweisungen nicht nur zur Qualität einzelner Ergebnisse, sondern auch zum gesamten Lernfortschritt künstlicher Intelligenzen bei.

Warum die Kostenpflichtigkeit von ChatGPT positiv zu bewerten ist

Ihre Fähigkeit, selbstständig zu lernen, kann jedoch sowohl ihre größte Stärke als auch ihre empfindlichste Schwäche sein. GPT-3, das Sprachmodell, auf dem ChatGPT aktuell basiert, wurde beispielsweise mit Informationen bis Anfang 2021 trainiert. Alle neuen Entdeckungen und Erkenntnisse aus der Zeit danach sind der künstlichen Intelligenz damit völlig fremd. Dass KI-Modelle immer nur so gut sind, wie die ihr zugrundeliegenden und zu ihrem Training genutzten Daten, zeigt sich dabei besonders an einem ihrer wesentlichsten Defizite: 

Werden sie mit qualitativ minderwertigem oder unvollständigem Input versorgt, hat das teils schwerwiegende "Denkfehler" - ein sogenanntes Bias - zur Folge. Negative Bekanntheit erlangte dieser Missstand etwa dadurch, dass einzelne Nutzer ChatGPT gebeten haben, eine Rede im Stile Donald Trumps zu verfassen. Das KI-Modell antwortete darauf lediglich, sie könne diese Anfrage nicht erfüllen – wohingegen sie zu Joe Biden passende Vorträge anstandslos erstellen konnte.

In Kombination mit Prompting wird dieser Aspekt auch für den Entwicklungsfortschritt aktueller und künftiger KI-Modelle relevant. Denn hier gilt: je genauer und zugleich ausführlicher ein Prompt ist, desto besser fällt die Antwort von ChatGPT und Co. aus. Umgekehrt sorgt zu knapper und lückenhafter Input für mangelhafte, generische Ergebnisse. 

Auf Dauer begünstigen detaillierte und zugleich umfangreiche Arbeitsanweisungen somit auch den Qualitätsfortschritt künstlicher Intelligenz. Visuell lässt sich das mit einer T-Shape vergleichen: je besser der Input und damit auch die Trainingsgrundlage der KI in der horizontalen Informationsebene sind, desto hochwertiger ist der Output in der vertikalen Ergebnisebene.

An diesem Punkt kommen auch die Vorteile der Kostenpflichtigkeit von ChatGPT zum Tragen: Denn im Durchschnitt wird das Sprachmodell dadurch mit hochwertigeren Anfragen versorgt. Schließlich wird kaum jemand einen kostenpflichtigen Service für unnötige Spielereien missbrauchen. Dank dieser Aspekte wird die Qualität des gelieferten Outputs sowohl kurz- als auch langfristig steigen, was die KI letztendlich in vielen Branchen und Einsatzgebieten zu einem wertvolleren Helfer machen wird.

Fazit: Künstliche Intelligenz als Tool der Zukunft

Erzielt man weiterhin in diesem Tempo Fortschritte, ist in den nächsten zwei bis drei Jahren eine starke Disruption in diesem Feld zu erwarten. So werden bereits mit GPT-4 - der neuesten und aktuell in der Entwicklung befindlichen Version des autoregressiven Sprachmodells von ChatGPT - große kreative Leistungssprünge folgen: Dadurch müssen Webdesigns beispielsweise nicht mehr manuell erstellt werden. 

Vielmehr wird es ausreichen, lediglich eine Design-Vorlage auszuwählen und diese um spezifische Informationen wie etwa die gewünschte Farbe zu ergänzen. Auf dieser Grundlage erstellt die KI eine vollständige Website mit dazugehörigen E-Mail-Kontakten, Sales Funnels und Werbeanzeigen. Die geplante Kostenpflichtigkeit von ChatGPT begünstigt diese Entwicklung zusätzlich – und schafft damit in kurzer Zeit neue Geschäftsfelder im gesamten Marketing-Sektor.

*  *  *

Über Gastautor Raoul Plickat:


Raoul Plickat ist Gründer von CopeCart und Marketing.MBA. Er ist seit 2012 im Marketing--Bereich tätig und hat sich seitdem zu einem der gefragtesten Marketer Deutschlands entwickelt. In seiner Tätigkeit optimiert der Experte die Positionierung und Marketingmaßnahmen großer Marken. Für sein Wirken wurde er unter anderem mit dem „TWO COMMA X-Award“ ausgezeichnet. 
Weitere Informationen unter: https://www.marketing.mba/de.