Posts mit dem Label ChatGPT werden angezeigt. Alle Posts anzeigen
Posts mit dem Label ChatGPT werden angezeigt. Alle Posts anzeigen

Dienstag, 2. April 2024

HANSEMACHINE: Die stille Revolution der KI-Sprachmodelle.

HANSE DIGITAL GASTBEITRAG

"Wir erleben eine historische Wende, vielleicht sogar den wichtigsten Moment seit der Markteinführung des iPhones. Jedenfalls wird dieser Moment das Silicon Valley verändern."
- Peter Thiel, Serien-Gründer und Investor, u. a. Founders Fund, San Francisco -


Das KI-Sprachmodell ChatGPT begeistert seine Nutzer.
Grafik: Alexandra Koch, Pixabay

Sprachmodelle wie ChatGPT sind derzeit in aller Munde. Kaum eine Technologie hat seit Erscheinen von ChatGPT-3 am 30. November 2022 für so viel Furore gesorgt, wie diese komplexen KI-Systeme, die menschliche Sprache in beeindruckender Qualität verstehen und generieren können. Wie funktionieren Sprachmodelle und welche Möglichkeiten eröffnen sie für unseren Alltag und die Arbeitswelt? Norddeutschlands KI-Experte Oliver Welling Blick blickt für HANSEVALLEY hinter die Kulissen dieser faszinierenden Technologie.

Rund 16.000 KI-Startups gibt es allein in den USA, über 6.000 in Europa und 300 in Deutschland. Diese Zahlen verdeutlichen die enorme Dynamik, mit der sich das Feld der Künstlichen Intelligenz entwickelt. Im Zentrum des Interesses steht dabei aktuell die "Generative KI". Hier handelt es sich um Systeme, die aus riesigen Datenmengen lernen, neuartige Inhalte wie Texte, Bilder oder Musik zu erschaffen. Das gemeinsame Fundament der Anwendungen sind sogenannte "Large Language Models" - kurz: Sprachmodelle.

Sprachmodelle eröffnen völlig neue Möglichkeiten der "Mensch-Maschine-Interaktion". Von virtuellen Assistenten über automatisierte Kundenkommunikation bis hin zu intelligenten Schreibwerkzeugen - die Einsatzgebiete sind vielfältig. Im Kern geht es darum, die Lücke zwischen menschlicher Sprache und Computersystemen zu schließen. Sprachmodelle verstehen natürliche Sprache, erkennen Kontexte und Nuancen. Sie antworten mit korrekter Grammatik, konsistenter Logik und sogar einem kreativem Ausdruck.

Das klingt beeindruckend. Doch wie funktionieren Sprachmodelle eigentlich? Im Grunde handelt es sich um komplexe Deep-Learning-Systeme, die mit riesigen Textdatenmengen trainiert werden. Sie lernen, die verborgenen Muster und Strukturen der Sprache zu erkennen und zu modellieren. Dafür kommen vor allem sogenannte "Transformer"-Architekturen zum Einsatz, die aus vielen Schichten künstlicher Neuronen bestehen.

Im Training analysiert das Sprachmodell Milliarden von Wörtern und Sätzen. Es lernt, wie Begriffe zusammenhängen, wie Sätze aufgebaut sind, wie sich Bedeutungen im Kontext entfalten. Nach und nach entwickelt es ein tiefes Verständnis für Sprache, das weit über starre Grammatik-Regeln hinausgeht. Am Ende steht ein Modell mit Milliarden von Parametern - eine Art digitales Gehirn, vollgepackt mit sprachlichem Wissen.

Einmal trainiert, lässt sich dieses Modell für vielfältige Aufgaben einsetzen - ein Prozess, der als "Fine-Tuning" bezeichnet wird. Ob Übersetzung, Textzusammenfassung oder kreatives Schreiben, das Grundmodell wird auf den spezifischen Anwendungsfall angepasst und optimiert. So entstehen spezialisierte Sprachmodelle, die in ihrem jeweiligen Gebiet oft verblüffende Ergebnisse liefern.

Doch nicht alle Sprachmodelle sind gleich. Je nach Anwendungsfall kommen unterschiedliche Architekturen und Optimierungsverfahren zum Einsatz. Generative Modelle wie GPT sind darauf trainiert, eigenständig Texte zu verfassen. Diskriminative Modelle wiederum analysieren und klassifizieren Texte, beispielsweise um Spam-Mails zu erkennen. Daneben gibt es spezialisierte Modelle für Dialog, Übersetzung oder Sentimentanalyse.

Welche Sprachmodelle gibt es konkret und wozu werden sie eingesetzt? Hier ein kurzer Überblick über einige der bekanntesten Vertreter:

ChatGPT von OpenAI gilt als ein Original unter den KI-Sprachmodellen.
Grafik: Franz26, Pixabay

1. OpenAI ChatGPT-4

Ein fortschrittliches Sprachmodell, entwickelt von OpenAI. ChatGPT-4 als Turbo Vision erweitert dabei die Funktionalitäten des ursprünglichen ChatGPT-4 durch verbesserte Fähigkeiten in der Verarbeitung und Generierung von natürlicher Sprache, kombiniert mit visuellen Verarbeitungskapazitäten, um ein tieferes Verständnis von Text- und Bildinhalten zu ermöglichen.

2. Google Gemini

Gemini beschreibt eine Reihe multimodaler Sprachmodelle von Google. Entwickelt von der Google-Tochter DeepMind, baut Gemini auf den Vorgängermodellen LaMDA und PaLM 2 auf und hebt deren Fähigkeiten auf ein neues Niveau. Mit der Verarbeitung von Text, Bild, Video, Audio und Code in drei Leistungsstufen - Nano, Pro und Ultra - eröffnet Gemini faszinierende Möglichkeiten. Seit der Vorstellung im Dezember 2023 beeindruckt diese state-of-the-art KI mit ihrer Vielseitigkeit und Leistungsfähigkeit.

3. Claude (Anthropic)


Anthropic stellt mit Claude 3 einen leistungsstarken KI-Chatbot vor, der selbst GPT-4 von OpenAI in den Schatten stellen soll. In drei Varianten - Haiku, Sonnet und Opus - verfügbar, beeindruckt Claude 3 mit verbesserten Analyse-, Vorhersage- und Leistungsfähigkeiten. Als erster multimodaler GenAI-Chatbot von Anthropic eröffnet er zudem neue Möglichkeiten in der Bildanalyse und setzt damit einen weiteren Meilenstein in der rasanten Entwicklung der Künstlichen Intelligenz.

4. Perplexity AI

Das Suchmaschinen-Startup revolutioniert die Suche im Internet durch die Verbindung eines leistungsstarken Chatbots mit einer intelligenten Suchmaschine. Im Gegensatz zu herkömmlichen Suchmaschinen ermöglicht Perplexity AI eine natürliche Konversation, bei der Fragen direkt beantwortet werden, anstatt nur Links zu liefern. Durch das Zitieren von Quellen und Websites schafft es Transparenz und Vertrauen in die gelieferten Informationen. Perplexity AI setzt neue Maßstäbe für die Suche und den Zugang zu Wissen im digitalen Zeitalter.

5. Mistral AI

Mistral AI ist ein aufstrebendes französisches Softwareunternehmen, hat sich seit seiner Gründung im April 2023 der Entwicklung innovativer KI-Lösungen verschrieben. Unter der Leitung der renommierten Forscher Arthur Mensch, Timothée Lacroix und Guillaume Lample, die zuvor bei Meta und Google DeepMind tätig waren, setzt Mistral AI neue Maßstäbe in der Welt der Open-Source-Sprachmodelle. Mit den leistungsstarken Modellen Mistral Large, Medium und Small bietet das Unternehmen über API-Schnittstellen eine breite Palette an Möglichkeiten für kommerzielle Anwendungen. Mistral AI positioniert sich als Vorreiter in der KI-Branche und ebnet den Weg für eine neue Ära der Sprachverarbeitung und -generierung.

6. AlephAlpha Luminous

Aleph Alpha, ein auf KI spezialisiertes Start-up aus Heidelberg, setzt mit seinem Sprachmodell Luminous neue Maßstäbe in Sachen Transparenz und Nachvollziehbarkeit. Durch eine innovative Erweiterung ist Luminous in der Lage, die Herkunft der generierten Antworten präzise anzugeben und auf mögliche Widersprüche in den Quellen hinzuweisen. Diese Fähigkeit, die Ursprünge der KI-generierten Inhalte offenzulegen, stellt einen bedeutenden Durchbruch dar und adressiert eines der Hauptprobleme aktueller KI-Sprachanwendungen wie ChatGPT. Mit diesem wegweisenden Ansatz ebnet Aleph Alpha den Weg für vertrauenswürdigere und zuverlässigere KI-Lösungen und unterstreicht seine Vorreiterrolle in der Entwicklung transparenter und nachvollziehbarer KI-Technologien.

7. Inflection Pi 2.5

Inflection Pi 2.5 verspricht eine bahnbrechende Kombination aus hoher Intelligenz und Empathie in der Welt der KI-Chatbots. Als eines der ersten Produkte von Inflection.AI, einem 2022 gegründeten Technologieunternehmen mit Sitz in Palo Alto, Kalifornien, setzt Pi 2.5 neue Maßstäbe in der generativen KI.

Basierend auf einem umfangreichen Datensatz aus Text und Code, ist Pi 2.5 in der Lage, beeindruckende Leistungen in Bereichen wie Textgenerierung, Übersetzung und kreativer Inhaltserstellung zu erbringen. Doch es ist nicht nur die rohe Leistungsfähigkeit, die Pi 2.5 auszeichnet. Durch die Integration von emotionaler Intelligenz (EQ) und einem hohen Intelligenzquotienten (IQ) schafft Inflection eine einzigartige Persönlichkeit, die sich durch Empathie und Einfühlungsvermögen auszeichnet.

8. Poe.com

Poe.com ist eine innovative Plattform, die Nutzern die Möglichkeit bietet, über eine zentrale Schnittstelle mit verschiedenen KI-Modellen wie ChatGPT, GPT-4, Claude 2, Claude 3, Mistral Small, Medium und Large, sowie viele Bild-KIs wie DALLE 3 zu interagieren. Diese benutzerfreundliche Lösung erleichtert den Zugang zu leistungsstarken KI-Technologien und ermöglicht es auch weniger erfahrenen Anwendern, die Vorteile dieser Modelle zu nutzen, ohne sich mit der Installation und Verwaltung einzelner Anwendungen auseinandersetzen zu müssen. Ein besonderes Merkmal von Poe.com ist die Möglichkeit, die Leistungsfähigkeit unterschiedlicher KI-Modelle direkt miteinander zu vergleichen.

Die Liste ließe sich beliebig fortsetzen, denn die Entwicklung schreitet rasant voran. Immer neue Sprachmodelle mit immer beeindruckenderen Fähigkeiten erobern den Markt. Doch wo Licht ist, da ist auch Schatten. Denn so faszinierend die Möglichkeiten von Sprachmodellen sind, so drängend sind auch die damit verbundenen Herausforderungen und Risiken.

Licht und Schatten im Reich der KI-Sprachmodelle

So beeindruckend die Fähigkeiten von Sprachmodellen sind, so sehr werfen sie ethische Fragen auf. Da ist zum einen das Thema Datenschutz: Auf welchen Daten wurden die Modelle trainiert und wie wird sichergestellt, dass keine persönlichen Informationen nach außen dringen? Zum anderen geht es um Verzerrungen und Vorurteile, die sich aus den Trainingsdaten in die Modelle einschleichen können.

Ein Beispiel: Wenn ein Sprachmodell hauptsächlich auf Texten aus westlichen Ländern trainiert wurde, kann es sein, dass es bestimmte kulturelle Kontexte nicht versteht oder Minderheiten stereotyp darstellt.

Ein zentrales Problem ist das Phänomen der "Halluzinationen" - Fehler und Verzerrungen in den generierten Inhalten. Sprachmodelle sind nicht allwissend, sondern nur so gut wie ihre Trainingsdaten. Wenn sie mit Anfragen konfrontiert werden, die über ihr Wissen hinausgehen, neigen sie dazu, "Fakten" zu erfinden. Das kann von harmlosen Ungenauigkeiten bis hin zur Verbreitung von Falschinformationen reichen.

Auch Fragen der Fairness und Verzerrung sind zu berücksichtigen. Sprachmodelle lernen aus den Daten, mit denen sie trainiert werden. Wenn diese Daten einseitig oder wirklich diskriminierend sind, kann sich das in den Ausgaben des Modells widerspiegeln. Stereotype und Vorurteile können so unbeabsichtigt verstärkt werden. Um dem entgegenzuwirken, sind sorgfältig kuratierte Datensätze und Methoden zur Erkennung und Reduzierung von Bias erforderlich.

Ein weiteres Risiko ist der potenzielle Missbrauch von Sprachmodellen. In den falschen Händen könnten sie zur Erstellung täuschend echter Fake News, Phishing-Mails oder Propagandatexte verwendet werden. Auch Cyberkriminelle zeigen zunehmendes Interesse an der Technologie. Es braucht robuste Sicherheitsmechanismen und klare Richtlinien, um einen verantwortungsvollen Einsatz zu gewährleisten.

Transparenz, ethische Richtlinien und Überprüfung

Es liegt also an den Entwicklern und der Gesellschaft als Ganzes, einen verantwortungsvollen Umgang mit dieser mächtigen Technologie zu finden. Dafür braucht es Transparenz, klare ethische Richtlinien und eine kontinuierliche Überprüfung der Systeme. Nur so können wir sicherstellen, dass Sprachmodelle zum Wohle der Menschheit eingesetzt werden.

Trotz dieser Herausforderungen ist klar: Sprachmodelle bieten ein enormes Potenzial, unsere Art zu kommunizieren und mit Computern zu interagieren, nachhaltig zu verändern. Sie sind mehr als nur eine technische Spielerei - sie sind eine Schlüsseltechnologie, die unsere Gesellschaft und die Wirtschaft in den kommenden Jahren prägen wird. KI ist kein neues Hype-Thema, es ist ein Paradigmenwechsel in sehr vielen verschiedenen Branchen zur gleichen Zeit.

Schon heute sehen wir, wie Sprachmodelle in immer mehr Bereiche unseres Lebens vordringen. Virtuelle Assistenten wie Siri oder Alexa nutzen Sprachmodelle, um unsere Anfragen zu verstehen und passende Antworten zu geben. Chatbots revolutionieren den Kundenservice und sind oft kaum noch von menschlichen Mitarbeitern zu unterscheiden. Und auch in der Arbeitswelt halten Sprachmodelle Einzug - sei es als intelligente Schreibhilfen, Übersetzungstools oder sogar als Unterstützung bei der Programmierung.

Doch das ist nur der Anfang. Experten sind sich einig, dass das wahre Potenzial von Sprachmodellen noch lange nicht ausgeschöpft ist. Mit immer leistungsfähigeren Systemen und neuen Anwendungsszenarien stehen uns in den kommenden Jahren tiefgreifende Veränderungen bevor.

So könnten Sprachmodelle etwa die Grundlage für wirklich intelligente Tutorsysteme bilden, die individuell auf die Bedürfnisse und Lernfortschritte von Schülern und Studenten eingehen. In der Medizin könnten sie helfen, riesige Mengen an Studien und Patientendaten zu analysieren, um neue Erkenntnisse zu gewinnen und Diagnosen zu verbessern. Und auch in der Forschung eröffnen sich völlig neue Möglichkeiten, wenn Sprachmodelle bei der Analyse komplexer Textdaten unterstützen, oder Materialforschung in einem Bruchteil der bisherigen Zeit durchführen.

Eines ist sicher: Die stille Revolution der Sprachmodelle hat gerade erst begonnen. Je besser wir verstehen, wie diese faszinierende Technologie funktioniert und welche Möglichkeiten sie bietet, desto besser können wir sie zum Wohle der Menschheit einsetzen.

Es liegt an uns allen, diesen Wandel aktiv mitzugestalten. Dafür braucht es einen offenen und informierten Diskurs, der technische Aspekte ebenso berücksichtigt wie ethische und gesellschaftliche Fragen. Nur wenn wir die Entwicklung von Sprachmodellen transparent und verantwortungsvoll gestalten, können wir ihr volles Potenzial ausschöpfen - und gleichzeitig die Risiken minimieren.

Über KI-Experte und Publizist Oliver Welling:

Foto: Oliver Welling, privat
Oliver Welling hat digitale DNA im Blut: Heute 56, hatte Oliver bereits mit 14 den ersten PC. Den ersten Chatbot hat Oliver schon 1987 mit "ELIZA" kennengelernt. Die Faszination für IT und digitale Wirtschaft mündete in der Gründung der Digital-Agentur "Spot-Media", die Oliver als Vorstandsvorsitzender führte und 2008 verkaufte. Seitdem hat er strategische Unternehmensberatung im deutschen Mittelstand durchgeführt. 


Als Kurator des "Reeperbahnfestivals" konnte er das Thema Künstliche Intelligenz nicht nur in Hamburg weiter vorantreiben. Als Gründer der KINEWS24.de berichtet er täglich über aktuelle News und die besten Tools auf dem Markt. Heute berät er mittelständische Unternehmen beim Einsatz von KI zur Steigerung von Effizienz, hält Vorträge über das Thema und hilft Unternehmen die eigene KI-Strategie zu entwickeln.

 Hanse Digital Background: 

Gastbeitrag Oliver Welling:
"Prompt Engineering - Mit besseren Prompts zu viel besseren Ergebnissen"
hansevalley.de/2024/02/hansemachine-gastbeitrag-olliverwelling.html


 Hanse Digital Service: 

HANSEMACHINE - Das Hanse KI Magazin:

Oliver Welling bei LinkedIn: 
linkedin.com/in/oliver-welling-58529653/

Die KINEWS24 im Netz:

Dienstag, 20. Februar 2024

HANSEMACHINE: Prompt Engineering - Mit besseren Prompts zu viel besseren Ergebnissen

 HANSE DIGITAL GASTBEITRAG


"Künstliche Intelligenz ist derzeit noch ein Nischenphänomen. Lediglich acht Prozent fühlen sich mit der Technologie vertraut."

Nils Andres, Gründer und Geschäftsführer des Brand Science Institute 
sowie Initiator von BSI AI in Hamburg


Digitaler Eyecatcher generiert von einem KI-Sprachmodell
KI-Creator: Julius H. aus Niedersachsen, via Pixabay

Seit wir mit Sprachmodellen wie ChatGPT arbeiten, ist die Eingabe der richtigen Anweisungen eine hohe Kunst. Ein guter "Prompt" macht den Unterschied und kann entweder ein hervorragendes oder ein unbrauchbares Ergebnis liefern. "Prompt Engineering“ optimiert die Interaktion mit der Künstlichen Intelligenz (KI) durch präzise Eingabeaufforderungen. Ein ganz neues Berufsfeld entsteht.

KIs verstehen inzwischen natürliche Sprache – das ist einerseits faszinierend und großartig, andererseits stellt es uns vor neue Herausforderungen: Wie formuliere ich meinen Prompt, damit  das herauskommt, was ich wirklich brauche? Oliver Welling hat 1987 den ersten Chatbot ausprobiert - und ist heute mit den KINEWS24.de einer der führenden Publizisten in einem der spannendsten Technologie-Themen des Jahres.

Der schleswig-holsteinische KI-Experte zeigt uns den Weg zu richtig guten Ergebnissen mit Aleph Alpha, ChatGPT, Google Gemini, Microsoft Copilot und Neuroflash aus Hamburg:

Grundlagen für erfolgreiche Ergebnisse mit KI-Sprachmodellen

Die Klarheit:

Ich behaupte: Mit wenigen Grundregeln kann man deutlich bessere Ergebnisse erzielen. Klarheit und Präzision sind dabei das A und O, heißt: Vermeide Mehrdeutigkeiten, um relevante Antworten zu erhalten. So kann man die Entwicklung von Texteingaben in KI-Sprachmodelle auf den Punkt bringen. Dazu ein erstes Beispiel: Ich leide unter der Kurzlebigkeit meines Handy-Akkus und frage das Sprachmodell um Rat:

Ein schlechter Prompt: „Wie mache ich es, dass mein Handy-Akku länger läuft?“. Dieser Prompt ist nicht spezifisch, sagt nicht, um welches Gerät es sich handelt und „besser machen“ ist eine ziemlich offene Frage.

Unser guter Prompt: „Wie kann ich die Akkulaufzeit meines (Smartphone-Typs) bei täglicher Nutzung so optimieren, dass ich nicht mittags erneut laden muss?“. Dieser Prompt ist klar und präzise. Er adressiert ein spezifisches Problem (Optimierung der Akku-Laufzeit des (Smartphone-Typs) und definiert ein Ziel (Vermeidung einer Zwischenladung am Mittag).

Der Kontext:

Dabei gilt wie bei einer Unterhaltung im normalen Leben: Auf den Kontext kommt es an: Die Einbeziehung der näheren Umstände oder des Hintergrunds für meine Frage verbessert das Verständnis des KI-Modells für die Anfrage. In meinem Beispiel geht es um die Verbesserung der Social-Media-Präsenz eines Startups:

Ein schlechter Prompt: „Wie verbessere ich unsere Social-Media“? Hier gibt es keinen Kontext, der mitteilt um, was für ein Unternehmen es sich handelt und kein erklärtes Ziel oder klare Zielgruppen für die nötige Verbesserung.

Unser guter Prompt: „Welche Strategien können für ein Startup im Bereich nachhaltiger Technologien für unseren Social-Media-Account bei LinkedIn in den nächsten sechs Monaten genutzt werden?“


Hier gibt es eine spezifische Aussage zum Unternehmen, ebenso wird der Ziel-Kanal benannt und ein Zeitraum definiert – damit sollte eine maßgeschneiderte Antwort des Sprachmodells ermöglicht werden. Um nichts Wichtiges zu vergessen, helfen die W-Fragen im Leben: Wer? Was? Wann? Wo? Wie? Weshalb bzw. Warum? und Woher? So bekommt auch jeder Journalist jedes Thema "rund".


Die Zielstellung:

Nicht zu vernachlässigen ist eine klare Zielstellung: Wofür möchte ich das Ganze nutzen? So kann die Generative KI zielsicher vorschlagen, was uns helfen kann - z. B. in der Ausbildung, im Beruf oder im Privatleben. Und schon liefern uns ChatGPT, Neuroflash & Co. bessere Ergebnisse. Definiere also klar das Ziel der Anfrage, um zielgenaue Antworten zu erhalten. Hier mein Beispiel:

Ein schlechter Prompt: „Gib mir Tipps“ – natürlich viel zu vage, ohne Ziel und ohne Angabe – kann jede Antwort so richtig wie falsch werden. Die KI weiß nicht, ob sie nach links, nach rechts oder geradeaus laufen muss.

Unser guter Prompt: „Erstelle eine Liste von fünf effektiven Zeitmanagement-Techniken für Fernstudierende, die nebenbei in Teilzeit arbeiten.“ Dieser Prompt ist zielorientiert und präzise, hat eine klare Zielgruppe und definiert eine Aufgabe. Die Freude über die Ergebnisse ist sicher.


Die Kreativität:

Kommen wir zu einem besonders interessanten Thema: der Kreativität. Hier gilt für sehr gute Ergebnisse des eingesetzten KI-Sprachmodells ein simpler Grundsatz. Offene Fragestellungen fördern originelle Antworten. Wer geschlossen fragt, bekommt im Zweifelsfall ein "Ja" oder Nein", wenn die KI einen schlechten Tag hat.

Ein schlechter Prompt: „Gib mir Infos über Zeitreisen“. Dieser Prompt ist zwar offen, aber zu unspezifisch und bietet keine kreative Herausforderung oder Zielrichtung. Die Ergebnisse von Copilot, Gemini & Co. können von Wikipedia-Einträgen bis zu Google Suchergebnissen reichen - suboptimal ...

Unser guter Prompt: „Entwirf eine Geschichte, in der ein Zeitreisender versehentlich das Internet des 21. Jahrhunderts in das antike Griechenland bringt und die Auswirkungen auf die Gesellschaft beschreibt.“ Mit der Vorgabe einer ungewöhnlichen Situation kann es eine Vielzahl von möglichen Antworten geben – dieser Prompt ermutigt zur Kreativität, gibt aber genauso einen klaren Handlungsrahmen vor. 


Wenn man die vier Grundregeln zu Präzision, Kontext, Zielstellung und Kreativität befolgt, kann man sichtbar erleben, wie das Sprachmodell deutlich bessere Ergebnisse liefert.

Diese KI-Sprachmodelle mussten sich schon einige Prompts ansehen ...
KI-Creator: Alexandra Koch, via Pixabay 

Ein paar weitere, praktische Tipps für noch bessere Ergebnisse:
  • Integriere eindeutige, relevante Keywords
Ein Beispiel: Du möchtest Informationen über die besten Praktiken für nachhaltige Landwirtschaft finden.

Weniger effektiv: "Wie kann ich Landwirtschaft betreiben?"

Viel effektiver: "Was sind die besten Praktiken für nachhaltige Landwirtschaft im urbanen Raum?"

Das Integrieren von Keywords wie "nachhaltige Landwirtschaft" und "urbaner Raum" hilft dem Modell, den Fokus der Anfrage zu verstehen und relevante Informationen bereitzustellen.

  • Nutze Follow-up-Fragen für die Präzision
Beispiel: Du hast eine allgemeine Antwort auf eine Frage zur Programmierung erhalten und benötigst spezifischere Details.

Erste Frage: "Wie schreibe ich eine Schleife in Python?"

Follow-up-Frage: "Kannst du ein Beispiel für eine for-Schleife geben, die eine Liste von Zahlen in Python durchläuft?"

Durch die Nutzung von Follow-up-Fragen kannst du die Genauigkeit der Informationen erhöhen, indem du das Thema schrittweise einschränkst.

  • Experimentiere mit verschiedenen Formulierungen
Beispiel: Du suchst nach Möglichkeiten, Stress zu reduzieren.

Erste Formulierung: "Wie reduziere ich Stress?"

Alternative Formulierung: "Welche Techniken sind effektiv zur Entspannung und Stressbewältigung?"

Durch das Experimentieren mit verschiedenen Formulierungen kannst du herausfinden, welche Art der Fragestellung die nützlichsten Antworten hervorbringt.

  • Gib klare Anweisungen bei kreativen Aufgaben
Beispiel: Du möchtest, dass das Modell eine Geschichte über einen Drachen und einen Ritter aus einer ungewöhnlichen Perspektive schreibt.

Weniger klar: "Schreib eine Geschichte über einen Drachen und einen Ritter."

Deutlich klarer: "Schreib eine Kurzgeschichte, in der der Drache der Held ist und der Ritter das Königreich bedroht. Nutze eine humorvolle Sprache und integriere eine unerwartete Wendung."

Mit diesen Tipps und den oben genannten Grundregeln hat man das passende Werkzeug für viel bessere Ergebnisse.


Das KI-Sprachmodell ist nur so gut, wie der Nutzer vor dem Schirm.
KI-Creator: Franz Bachinger, via Pixabay


Doch hier hört die Kunst nicht auf, denn Sprachmodelle sind in der Lage, ganz spezifische Rollen einzunehmen (z. B. als Social-Media-Manager, Texter, Lehrer, technischer Berater, Historiker, Fitnesscoach, Reiseplaner, Koch uvm.). Die Rolle, die man dem Sprachmodell im Prompt zuweist, ermöglicht über die genannten Optionen hinaus noch mehr aus den Modellen herauszukitzeln. Die Möglichkeiten sind umfangreich.

Die Tonalität spielt eine weitere entscheidende Rolle, da sie den emotionalen Unterton und die Stimmung der Antworten beeinflusst. Wir können die gewünschte Tonalität direkt in den Prompts eingeben, um die Art der Interaktion zu steuern. Mit der Bitte um eine „formelle, informelle, humorvolle oder ernste Antwort“ bestimmen wir das Ergebnis.

Prompt-Engineering folgt in Summe verschiedenen Regeln und es gibt jedem Nutzer die Möglichkeit, ganz individuell zu bestimmen, was am Ende aus dem Sprachmodell herauskommt. Es ist keine Fähigkeit, die man nur intellektuell lösen kann – es braucht auch Versuch und Irrtum. Auch „falsche Prompts“ und das Herausfinden eines „passenden Prompts“ kann viel Spaß machen – und mit jedem Prompt wird man selbst besser.


Die KI-Entwicklung ist extrem dynamisch – heute geben wir Prompts ein und diese steuern das Ergebnis – zukünftig werden wir sehr wahrscheinlich mit KIs in Form von Avataren sprechen. Die notwendige Technik ist bereits da. Klar, eindeutig und zielorientiert – wie im echten Leben – führt zu den besten Ergebnissen - auch im Austausch mit einer KI. In diesem Sinne: Viel Glück und Erfolg!

Bis zu 35% aller Marketingbudgets werden durch Einsatz von KI in Zukunft gespart!

Umfrage unter rd. 300 Marketing-Verantwortlichen zum Einsatz von Künstlicher Intelligenz
BSI AG, BSI AI, Januar 2024


Über KI-Experte und Publizist Oliver Welling:

Foto: Oliver Welling, privat
Oliver Welling hat digitale DNA im Blut: Heute 56, hatte Oliver bereits mit 14 den ersten PC. Den ersten Chatbot hat Oliver schon 1987 mit "ELIZA" kennengelernt. Die Faszination für IT und digitale Wirtschaft mündete in der Gründung der Digital-Agentur "Spot-Media", die Oliver als Vorstandsvorsitzender führte und 2008 verkaufte. Seitdem hat er strategische Unternehmensberatung im deutschen Mittelstand durchgeführt. 


Als Kurator des "Reeperbahnfestivals" konnte er das Thema Künstliche Intelligenz nicht nur in Hamburg weiter vorantreiben. Als Gründer der KINEWS24.de berichtet er täglich über aktuelle News und die besten Tools auf dem Markt. Heute berät er mittelständische Unternehmen beim Einsatz von KI zur Steigerung von Effizienz, hält Vorträge über das Thema und hilft Unternehmen die eigene KI-Strategie zu entwickeln.

 Hanse Digital Service: 


Die KINEWS24 im Netz:

*  *  *

Mittwoch, 20. Dezember 2023

Digitalisierung 2024: Generative KI, IT-Sicherheit, Cloud-Einsatz

HANSE DIGITAL GASTBEITRAG

Cloud-Computing wird "New Normal" für Betrieb von IT-Anwendungen.

2024 drehen sich viele digitale Themen um KI.
Grafik: Reto Schweiwiller, Pixabay

Technologieexperten des Consulting- und Software-Hauses "Valantic" haben zehn Trends identifiziert, die im kommenden eine wichtige Rolle in der Digitalisierung vieler Unternehmen spielen werden. Neben der Weiterentwicklung von KI-Lösungen im Rahmen von Conversational AI werden die Hyperpersonalisierung der Customer Experience durch KI in den Mittelpunkt rücken.
Dazu kommen verstärkte Maßnahmen in IT-Security sowie ein steigender Stellenwert einer nachhaltigen Transformation. Den Autoren zufolge wird außerdem die Optimierung der Digital Employee Experience eine entscheidende Rolle bei der Fachkräftegewinnung und -bindung spielen.
Der globale Status Quo in der Digitalisierung ist dynamisch und variiert je nach Region, Branche und Organisation. IT-Entscheider setzen ihre Bemühungen auch im kommenden Jahr fort, um Prozesse und Dienstleistungen weiter zu digitalisieren. Dies umfasst die Implementierung von Technologien wie Cloud-Computing, Künstliche Intelligenz (KI) und Automatisierungslösungen, um Effizienz und Innovationen zu fördern. 
Dazu legen Unternehmen vermehrt Wert auf die Verbesserung des Kundenerlebnisses durch digitale Vertriebs- und Servicekanäle. Die Personalisierung von Angeboten, ein Compliance-konformer Einsatz von Conversational AI und die Nutzung von Datenanalysen stehen dabei u. a. im Mittelpunkt.
Bezogen auf den jüngsten Hype um KI-Sprachmodelle berichtet Daniel Völker, Head of AI Solutions bei "Valantic": "Für Unternehmen geht es jetzt an die Arbeit. Sie suchen nach Lösungen, generative KI im Business-Kontext sicher, rechtlich unbedenklich und produktiv zu nutzen. Dieser Trend wird 2024 an Dynamik gewinnen."
Auch auf das Thema IT-Sicherheit wird 2024 vermehrt der Fokus gesetzt. In diesem Jahr waren Ransomware-Attacken eine beliebte Angriffstechnik unter Cyberkriminellen. So wurden mithilfe von Krypto-Algorithmen gesamte IT-Systeme verschlüsselt und dadurch unbrauchbar gemacht. 
So kommt es nicht überraschend, dass Investitionen in die IT-Security einer Lünendonk-Umfrage zufolge 2024 die Top Nr. 1 Priorität für CIOs deutscher Unternehmen darstellt. Die Konsequenzen für die attackierten Unternehmen sind gravierend, Schäden gehen oft in die Millionen.
"Cyberkriminelle sind erfinderisch und überraschen ihre Opfer mit immer neuen Angriffsvarianten. Der Trend geht dahin, mehrere Angriffsvektoren miteinander zu kombinieren, um den Druck auf die angegriffenen Unternehmen maximal zu erhöhen", berichtet Thomas Lang, Geschäftsführender Partner bei "Valantic".

IT-Lösungen aus Cloud als "New Normal"

Der Bitkom sieht im neuen Jahr bei der Cloud-Nutzung durch Unternehmen ein rasantes Wachstum voraus und bezeichnet Cloud-Technologien als "New Normal" für den Betrieb von IT-Lösungen. Bereits im Cloud-Report 2023 des Digitalverbands gaben 56 Prozent der befragten Unternehmen an, in fünf Jahren mehr als die Hälfte ihrer IT-Anwendungen aus der Cloud betreiben zu wollen.

"Neben den klassischen Vorteilen - in erster Linie die flexible und skalierbare IT-Nutzung sowie minimierte Investitionen und Betriebsaufwände - fördert die Cloud vor allem die schnelle Innovation sowie deren Verfügbarkeit auch für kleinere Unternehmen und die breite Masse. Die rasante Verbreitung von generativer künstlicher Intelligenz wie ChatGPT zeigt das aktuell auf beeindruckende Weise", unterstreicht "Valantic"-Autor und Senior Manager Stephan Kuhn.

Folgende zehn IT-Trends nimmt die Autoren-Gruppe von "Valantic" im ihrem Trendwhitepaper 2024 genauer unter die Lupe:

  1. Conversational AI sicher im Unternehmen einsetzen
  2. Hyperpersonalisierung: CX-Boost durch Künstliche Intelligenz
  3. Nachhaltigkeit im E-Commerce: Technologien für Sustainable Online Shopping
  4. Sustainable Transformation: Nachhaltigkeit ganzheitlich denken
  5. Cybersecurity und Prävention: Darknet-Monitoring als Stand der Technik
  6. Digital Employee Experience: Entscheidend für Fachkräftegewinnung und -bindung
  7. The New Normal: Cloud-Computing als Innovations-Turbo für Alle
  8. E-Mobility: Digitale Ökosysteme als Nährboden der Mobilitätswende
  9. Digital Twins entfalten ihr volles Potenzial
  10. Langfrist-Trend Metaverse: Die Weichen werden jetzt gestellt

Das kostenfreie Whitepaper mit weiteren Informationen zu den einzelnen Trends und möglichen Handlungsempfehlungen für IT-Entscheider ist zu finden auf der "Valantic"-Webseite unter valantic.com/de/whitepaper-digitalisierungstrends-2024.

*  *  *

Montag, 19. Juni 2023

HANSEMACHINE: Prof. Marlis Prinzing: "KI-Technik ist ein Hammer!"

HANSEMACHINE


Die Journalistin, Hochschullehrerin und Kommunikationswissenschaftlerin Prof. Marlis Prinzing von der bundesweit engagierte Macromedia Hochschule 
spricht im Gast-Interview für das Hanse KI Magazin HANSEMACHINE über die Verbindung von Journalismus und Künstlicher Intelligenz.

Prof. Marlis Prinzing weiß, wie sich KI wie ChatGPT auf den Journalismus auswirkt.
Foto: Macromedia Hochschule

Künstliche Intelligenz (KI) ist gerade in aller Munde und verändert aktuell viele Lebensbereiche. Inwieweit wird sich dies auf den Journalismus auswirken? Marlis Prinzing, Professorin an der Hochschule Macromedia, erklärt im Hanse Digital Interviews, welche Auswirkungen KI-Technik haben kann:

Sie haben verschiedene Fachbeiträge über „Journalismus im digitalen Aufbruch“ veröffentlicht. Inwiefern verändern digitale Technologien die öffentliche Kommunikation?

Eine sehr große Frage. Digitale Techniken ermöglichen es, sich besser zu vernetzen, zu informieren und zu artikulieren denn je. Über sie lässt sich die öffentliche Meinungs- und Willensbildung massiv prägen. Global agierende Tech-Unternehmen haben daraus ein Geschäftsmodell gemacht: 

Indem wir auf sozialen Medien rasch und emotional auf Inhalte reagieren, die uns ein darauf ausgerichteter Algorithmus dort anbietet, erzeugen wir Daten, aus denen diese Unternehmen ihren Erlös erzielen. Das konkurriert teilweise mit Geschäftsmodellen für Journalismus, bei denen öffentliche Relevanz, Werte und damit Faktenprüfung und Recherche zentrale (und kostspielige) Größen sind.

Journalismus ist zweifach gefragt: KI-Techniken beeinflussen z. B. alltägliche journalistische Arbeitsroutinen und sie sind ein wichtiges Thema, zu dem Journalisten recherchieren und über das sie berichten müssen. Die Anwendungen solcher Techniken und die Abschätzung negativer wie positiver Folgen, also Fragen nach digitaler Ethik, reichen in viele gesellschaftliche Bereiche hinein, sind also nicht ausschließlich „Tech-Themen“. 

Journalisten müssen sie dringend als das behandeln, was sie sind: ressortübergreifend bedeutsame Querschnittsthemen. Im Journalismusstudium an unserer Hochschule sensibilisieren wir in mehreren Kursen für solche Zusammenhänge.

Neben routinemäßigen Aufgaben sind KI-basierte Systeme zunehmend auch in der Lage, kreative Prozesse zu übernehmen und selbst Texte zu verfassen. Aktuell erlangt die Anwendung ChatGPT große Popularität. Inwieweit werden künstliche Intelligenzen bereits im Journalismus eingesetzt?

Wir können drei Phasen unterscheiden. In Phase 1 lag der Fokus auf der Automatisierung von datengesteuerten Informationen (Spielergebnisse, Wahlergebnisse, Börsenkurse etc.). Viele Redaktionen sowie Agenturen (Reuters, AFP, AP etc.) begannen, solche Werkzeuge einzusetzen. In Phase 2 rückten Datenjournalismus-Projekte in den Fokus, denn maschinelles Lernen und Sprachverarbeitungstechnik ermöglichten, große Datenmengen zu analysieren sowie Trends, Muster und interessante Zusammenhänge für Geschichten zu entdecken. 

In manchen Redaktionen wurden Datenjournalismus-Teams gebildet und KI- oder Innovations-Labs installiert. Nun haben wir Phase 3 erreicht: Der Fokus liegt auf generativer KI, also auf Sprach-, Code- und Bilder-Generatoren, einer davon ist der oft zitierte Chatbot GPT. Ein solches Sprachmodell kann im Handumdrehen immense Mengen Erzähltext erzeugen. In etlichen Redaktionen wird mit generativer KI mehr oder weniger intensiv experimentiert.

Welchen Einfluss hat das auf die journalistische Qualität?

Unterschiedlichen Einfluss. KI-Technik kann ein nützliches Werkzeug sein, das einem Routinearbeiten abnimmt und diese präzise und hoch konzentriert ausführt. Man kann sie zum Sparring nutzen, um blitzschnell Überschriften-Alternativen zu produzieren, sie Textgerüste erstellen lassen, die man überprüft und ergänzt. Das schafft zeitliche Freiräume, um zu recherchieren, zu analysieren, Ideen zu entwickeln – Arbeiten, die KI-Technik gar nicht schafft.

KI-Technik kann aber auch die journalistische Glaubwürdigkeit kosten, wenn man nicht kontrolliert, welche Texte und vermeintliche Fakten sie ausgibt, wenn man nicht transparent macht, wo sie eingesetzt wird, oder das Publikum täuscht, wie etwa die Zeitschrift „aktuelle“ im April 2023, die vorgab, ein Interview mit dem verunglückten Rennfahrer Michael Schumacher geführt zu haben, und dann auflöste, dass sie das mittels KI vorgespielt hat. 

Qualitätsentscheidend ist: Wer ein KI-Werkzeug einsetzt, muss wissen, wie es wirklich funktioniert, und sich bewusst sein, dass er sich der Verantwortung nicht entziehen kann: Richtet ein Algorithmus Schaden an, kann man nicht ihn bestrafen, sondern nur beispielsweise die Entwickler und Anwender.

Wie schätzen Sie künstliche Intelligenz in Bezug auf Fake News ein?

KI-Technik ist wie ein Hammer. Man kann mit ihm einen Nagel für ein Bild einschlagen, den man mit den Fingern nicht in die Wand bekäme. Man kann eine Macke in die Wand schlagen. Oder jemanden erschlagen. Dem Hammer ist das egal. Und der KI ist egal, ob der Text, den sie ausgibt, stimmt, alles Mögliche verdreht oder kompletter Bullshit ist. KI-Technik generell wird immer leistungsfähiger. 

Entsprechend wird Desinformation raffinierter und täuschend echt, Fehler bei Text- wie bei Bild-Manipulationen lassen sich immer schwerer erkennen. Doch nicht KI-Technik an sich ist das Problem, sondern Anwender, die mit dem Werkzeug nicht umgehen können oder die Böses im Schilde führen, Menschen manipulieren, verunsichern und Wahrnehmungen vortäuschen wollen.

An der Hochschule Macromedia betreuen Sie den Studiengang Journalismus und beschäftigen sich unter anderem mit dem Thema Ethik im Journalismus. Was genau ist damit gemeint?

Ethik zeigt, wie sich Werte in praktisches Handeln umsetzen lassen und wer auf welcher Grundlage wofür in der Verantwortung steht. So können wir unseren Kompass ausrichten und eine begründete Vorstellung davon entwickeln, was geht und was zugemutet werden muss. Das richtet sich an jeden, ist redaktionell, individuell und unternehmensethisch relevant. 

Zentral ist meist nicht das „Ob“, sondern das „Wie“: wie wird über Krieg und Katastrophen berichtet, wie ist die Qualität der Datensätze, mit denen KI-Instrumente trainiert werden, wie werden Inhalte personalisiert: So stark, dass Filterblasen entstehen, oder offener?

Wie sieht die Zukunft des Journalismus aus? Brauchen wir überhaupt noch Journalisten, wenn zunehmend Teile der journalistischen Arbeit durch KI basierte Systeme abgelöst werden?

Diese Frage wird oft gestellt, trifft aber nicht den Kern. Bei allem, was bislang entwickelt wurde, handelt es sich um eine sogenannte „schwache KI“, die keinesfalls einen Menschen ersetzen, sondern ihm nur bestimmte Aufgaben abnehmen kann. Kein Werkzeug kann Journalismus und damit das Rückgrat einer digitalen demokratischen Gesellschaft ablösen. 

KI arbeitet auf Basis bestehender Datensätze, die nach bestimmten Vorgaben durchforstet werden, Journalismus hingegen ist eine Instanz für den Austausch über Dinge, Personen und Ereignisse, die Menschen umtreiben, die sie verstehen und einordnen wollen, vor denen sie gewarnt werden müssen oder zu denen sie Ideen suchen, was sie tun oder wie sie helfen können. Noch zu regeln sind zudem unter anderem rechtliche und ökonomische Fragen.

Gegenwärtig füllen Tech-Unternehmen beispielsweise Sprachmodelle mit journalistischen Inhalten, ohne für sie zu bezahlen und ohne das Einverständnis der Urheber dieser Inhalte einzuholen.

Spricht klare Worte in Sachen Journalismus.
Foto: Martin Jepp


Was würden Sie Ihren Studentinnen und Studenten mit auf den Weg geben?
  • Hartnäckig recherchieren, Dingen auf den Grund gehen, hinhören, hinterfragen (auch sich selbst!)
  • Falsifikatorisch vorgehen, also Sachverhalte aus unterschiedlichen Blickwinkeln betrachten, und überlegen, was gegen eine These spricht, insbesondere wenn sie naheliegend erscheint.
  • Sich der hohen Verantwortung von Journalismus der Gesellschaft gegenüber bewusst sein.

*  *  *





Marlis Prinzing ist Studiendekanin am Campus Köln der Macromedia Hochschule, Local Head der Kölner Wirtschaftsfaktultät sowie Professorin für Journalistik. Sie leitet das bundesweite, hochschulinterne das Study Program Journalism. Ihre journalistische Laufbahn begann sie bei einer Regionalzeitung, als freie Journalistin schrieb sie u.a. für „Die Zeit“, die „Financial Times Deutschland“ und die „Frankfurter Allgemeine Zeitung“. Sie ist Partnerin der Initiative „Qualität im Journalismus“.

 Hanse Digital Background: 

Macromedia Hochschule - Standort Hamburg:

Macromedia Hochschule - Fachbereich Journalismus Köln:

Dienstag, 18. April 2023

HANSEMACHINE: GPT 3.5 vs. 4.0 - Ein Experten-Chat, was besser ist.

HANSE KI MAGAZIN

"GPT-4 hat gegenüber GPT-3.5 einige Verbesserungen implementiert, um noch größeren Mehrwert für Nutzer zu bieten."
- Jonathan Mall, Gründer und CIO von Neuroflash aus Hamburg -

Ab sofort können wir mit KI-Tools reden, genauer gesagt, chatten.
Grafik: Neuroflash AI Image Generator

Das KI-Sprachmodell GPT von OpenAI ist seit Veröffentlichung Ende November '23 in aller Munde. Mit GPT-3.5 als kostenfrei nutzbare Betaversion und GPT-4 sind nun zwei Versionen des Textgenerators online und für Texte und mehr nutzbar. Welche Version ist für welche Aufgabe besser geeignet? Sollte ich das kostenpflichtige ChatGPT 4 nutzen, oder reicht 3.5 aus?

Das junge Hamburger Unternehmen Neuroflash ist einer der Vorreiter für KI-basierte Texttools. Mehr als 100 verschiedene Textarten können mit den Online-Vorlagen der "magischen Feder" erstellt werden. Gründer Jonathan Mall ist einer der klugen Köpfe hinter der Content Generator Suite. Wir haben Ihn zur aktuellen Entwicklung interviewt:

GPT-3.5 und GPT-4 – Was ist heisst das?

Du hast vielleicht schon von GPT-3 gehört, aber kennst du auch GPT 3.5? Es handelt sich hierbei um eine verbesserte Version des bekannten Sprachmodells von OpenAI. GPT-3.5 bietet eine höhere Leistungsfähigkeit und Genauigkeit als sein Vorgänger und kann somit noch komplexere Aufgaben bewältigen. 

Es handelt sich bei GPT-3.5 um ein künstliches sowie neuronales Netzwerk, das darauf trainiert wurde, natürliche Sprache zu verstehen und auch zu generieren. Das Modell kann Texte schreiben, Fragen beantworten und sogar Übersetzungen anfertigen. Damit ist GPT-3.5 einen Schritt näher, die menschliche Sprache perfekt zu beherrschen und wiederzugeben.

Jetzt weißt du, worum es sich bei GPT-3 handelt. Doch wie sieht es mit GPT-4 aus? GPT-4 ist die neueste Version des OpenAI Sprachmodells nach GPT-3.5 und verspricht, noch leistungsstärker zu sein als sein Vorgänger. GPT-4 soll beispielsweise in der Lage sein, noch komplexere Texte zu generieren und sogar menschenähnliche Konversationen zu führen.

Außerdem kann GPT-4 zusätzlich zum Text auch Bilder verstehen. Obwohl GPT-4 erst veröffentlicht wurde, sind viele User bereits gespannt auf dessen Fähigkeiten und darauf, wie das Sprachmodell die KI-Textgenerierung weiter revolutionieren wird. Es bleibt abzuwarten, ob GPT-4 wirklich so beeindruckend sein wird, wie die Idee es verspricht, aber sicher ist, dass die Zukunft der KI-Textgenerierung aufregend bleibt.

Vergleichen wir die beiden Modelle: Wo sind die Unterschiede?

Wenn wir die beiden Modelle GPT-3.5 und GPT-4 miteinander vergleichen, gibt es einige signifikante Unterschiede. Zum Beispiel ist GPT-4 in der Lage, komplexere Aufgaben zu bewältigen, als GPT-3.5. Der größte Unterschied zwischen GPT-3.5 und GPT-4 besteht damit in der Leistungsfähigkeit der Modelle. GPT-3.5 kann Text mit geringerer Genauigkeit erzeugen, während GPT-4 Texte in höherer Qualität produzieren kann.

GPT-4 kann dazu auch eine viel größere Menge an Daten verarbeiten und somit bessere Ergebnisse liefern. Im Vergleich zu GPT-3.5, das bis zu 3.000 Wörter als Eingabeaufforderung verarbeiten kann, kann GPT-4 bis zu 25.000 Wörter Eingabeaufforderung inklusive visuellem Input verarbeiten. 

Schließlich ist GPT-4 ein noch intelligenteres System. GPT-3.5 gehörte nach der BAR-Prüfung zu den untersten 10 % der getesteten Systeme, doch GPT-4 übertrifft 90 % aller Kandidaten. Dazu kommt, dass GPT-4 noch mehr Sprachen als GPT-3.5 versteht, wie zum Beispiel auch Lettisch, Thai oder Swahili.

Welche Verbesserungen hat GPT-4 gegenüber GPT-3.5?

GPT-4 hat gegenüber GPT-3.5 einige Verbesserungen implementiert, um noch größeren Mehrwert für Nutzer zu bieten. Gemäß OpenAI, zeichnet sich das GPT-4 Sprachmodell der nächsten Generation durch bedeutende Fortschritte in vier zentralen Bereichen aus:
  • Innovationskraft: Hinsichtlich der Innovationsfähigkeit zeigt sich GPT-4 als äußerst leistungsfähig, vor allem wenn es darum geht, kreative Vorhaben zu realisieren. Hierzu zählen etwa musikalische Kompositionen, Filmdrehbücher, technische Texte und sogar das Adaptieren des individuellen Schreibstils eines Nutzers.
  • Visuelle Informationen: Als ein multimodales Modell kann GPT-4 auch Bildmaterial als Basis für Interaktionen erkennen und verarbeiten. Dies ermöglicht es Nutzern, in Zukunft nicht nur textbezogene, sondern auch visuelle Eingaben zu tätigen.
  • Größerer Kontext: Das Verständnis von langem Kontext ist bei GPT-4 eine weitere bedeutsame Verbesserung. Das Sprachmodell hat die Fähigkeit, bis zu 25.000 Wörter von Nutzern zu verarbeiten. Es ist sogar möglich, GPT-4 einen Weblink zu schicken und es um Interaktion mit dem Text auf der Website zu bitten. OpenAI betont, dass dies nützlich für die Erstellung von umfangreichen Inhalten sowie für längere Gespräche sein kann.
  • Verlässlichkeit: GPT-4 zeichnet sich durch seine erhöhte Verlässlichkeit aus. Nach internen Untersuchungen von OpenAI zu urteilen, kann es 40 % fundiertere Antworten liefern. Dabei sinkt die Wahrscheinlichkeit, dass es auf falsche Inhalte eingeht, um beeindruckende 82 %.

Zusammenfassend lässt sich sagen, dass sich die Entwickler bei GPT-4 auf die Verbesserung der Sprachmodellierung konzentriert haben, um die Leistung von GPT-4 zu erhöhen. Eine der wichtigsten Verbesserungen ist die Fähigkeit, mehr Kontext zu verstehen und zu verwenden, um bessere Ergebnisse zu generieren. 

So kann GPT-4 vor allem komplexere Zusammenhänge besser verarbeiten. Darüber hinaus wurde die Fähigkeit zur Generierung von Texten verbessert, was bedeutet, dass GPT-4 in der Lage ist, noch menschenähnlichere Sätze und Absätze zu erstellen. All diese Verbesserungen machen GPT-4 zu einem beeindruckenden Sprachmodell, das uns sicherlich in Zukunft noch mehr beeindrucken wird.

Ist GPT-4 also in jedem Fall die bessere Version?

Es ist wichtig, die Stärken und Schwächen beider Modelle im Vergleich zueinander zu betrachten. Zuerst sollte man berücksichtigen, dass ein GPT-3.5-Textgenerator grundlegende Aufgaben momentan (noch) schneller bewältigen kann als GPT-4 – aufgrund seiner reduzierten Parameteranzahl und der kleineren Menge an zu verarbeitenden Daten. Daher ist es für kleinere und elementare Aufgaben häufig ratsam, GPT-3.5 anstelle von GPT-4 zu verwenden. 

Dennoch erfordern komplexere Aufgaben einen umfangreicheren Parametersatz und eine größere Datenmenge. Hier zeigt sich der Nutzen von GPT-4: Es ermöglicht eine höhere Präzision bei anspruchsvollen Aufgaben und liefert somit bessere Ergebnisse. Alles in allem lässt sich aber grundsätzlich sagen, dass noch Uneinigkeit darüber herrscht, welches Modell besser ist. 

Bis jetzt haben beide Modelle weiterhin einen großen Nutzen für Verbraucher, denn letztendlich ist persönliche Präferenz bei der Auswahl des Sprachmodells für die spezifische Anwendung entscheidend.

Und Dein persönliches Fazit als KI-Experte?

Zunächst einmal ist klar, dass beide Modelle beeindruckende Fortschritte in der Textgenerierung gemacht haben. GPT-4 scheint jedoch in einigen Bereichen noch einen Schritt weiter zu sein als sein Vorgänger. Insbesondere die Fähigkeit, komplexe Zusammenhänge zu verstehen und zu verarbeiten, ist ein großer Fortschritt. 

Letztendlich hängt die Wahl des richtigen Modells von den individuellen Bedürfnissen der Nutzer ab. Wenn du eine Textgenerierung benötigst, die komplexere Zusammenhänge verarbeiten kann, ist GPT-4 definitiv die bessere Wahl. Wenn du jedoch eine Textgenerierung benötigst, die natürliche Sprache schnell und effektiv generieren kann, ist GPT-3.5 immer noch eine hervorragende Alternative.

Vielen Dank für die fundierten Einblicke!

Das Interview führte Thomas Keup.

*  *  *

Über Jonathan Mall

Dr. Jonathan T. Mall ist Chief Innovation Officer von Neuroflash und hat nach seiner Promotion in Neuropsychologie vor allem im Bereich Big Data und visueller sowie semantischer Marketing-Optimierung gearbeitet. 

Neuromarketing und die Etablierung wissenschaftlicher Methoden in quantitativer Marktforschung stehen in seiner Arbeit klar im Fokus.


Über Neuroflash


Die Neuroflash GmbH ist ein Softwareunternehmen mit Sitz in Hamburg und versteht sich als deutsches Pendant zur ChatGPT. Die Gesellschaft wurde 2021 gegründet und hat heute zehn Mitarbeiterinnen und Mitarbeiter. 

Neuroflash generiert als SaaS die besten deutschen Texte in der DACH-Region. Die "magische Feder" von neuroflash hilft dabei mehrfach: 

Als bisher günstigste Lösung mit kostenfreier Einstiegsvariante können auch Selbstständige und KMUs in Sekundenschnelle Textideen erhalten und viel effizienter arbeiten. Von der Ideenfindung bis hin zum finalen Text, die hohe Variabilität beim Schreiben und das Optimieren der Wirksamkeit von Botschaften, wird in einer Software gelöst.

*  *  *
 Hanse Digital Background: 

HANSEFUTURE:
ChatGPT & Co - Das Outsourcing geistiger Arbeit hat begonnen!

HANSEMACHINE Bard, ChatGPT & Co.:
Das geht mit den neuen KI-Chatbots in Marketing und Business.

Dienstag, 21. März 2023

HANSEFUTURE: ChatGPT & Co - Das Outsourcing geistiger Arbeit hat begonnen!

HANSE DIGITAL FUTURE
- 1.100 Leser. Und Sie. -

Erstmals werden uns mit ChatGPT die künftigen Möglichkeiten künstlicher Intelligenz bewusst.
(Illustration: Kushinuke McFly, Pixabay)

Die US-Jobbörse "Resumebuilder" hat 1.000 Geschäftsführer zum Umgang mit ChatGPT befragt. 49 Prozent setzen den Chatbot bereits in ihrem Unternehmen ein, 30 % planen die Verwendung zumindest.

99 % der Unternehmen, in denen ChatGPT schon genutzt wird, sprechen von maßgeblichen Ersparnissen durch das Tool. 48 % wollen dabei mehr als 50.000,- $ eingespart haben, elf Prozent sogar mehr als 100.000,- $. Der Blick aufs Sprachmodell ist positiv geprägt, 55 % bezeichnen die Performance von ChatGPT als „exzellent“.


66 % der Befragten, die das Sprachmodell nutzen, verwenden es zum Schreiben von Code, 58 % zum Verfassen von Text-Inhalten. 57 % nutzen die KI-Unterstützung im Kundensupport und 52 % zum Verfassen von Besprechungsprotokollen.


32 % der Befragten gehen davon aus, dass ChatGPT in den nächsten fünf Jahren „auf jeden Fall“ zu Entlassungen führen wird, 31 % halten das für „wahrscheinlich“.

(Quelle: t3n.de News, 27.02.2023)


Was machen 10.000 Nividia Tesla GPUs V100 und bis zu 20 Mio. $ Investition für das Training einer KI möglich? Ein bis Juni 2021 mit 45 TB Daten und 176 Mrd. Wortsilben (Token) eigentlich dummes Plappermaul, das Menschen auf der ganzen Welt auch durch sein Selbstbewusstsein fasziniert. Mit der exponentiellen Nutzung von ChatGPT seit 30. November 2022 scheint eine neue Zeitrechnung angebrochen zu sein: die Zeit vor ChatGPT als erstem universellen Sprachdialogsystem - und die Zeit danach. Auch wenn GPT-3 seit Juni 2020 existiert.

Sprechen die einen von einer echten Revolution, die das Leben aller Menschen verändern wird, befürchten die anderen bereits eine Konkurrenz von Mensch und Maschine, verbunden mit der alles entscheidenden Frage nach unserer Existenz. Wie in jedem Entwicklungs- oder Produkt-Zyklus probieren die "Innovatoren" in der aktuellen Phase als “First Mover” aus, was möglich ist - ob Software coden, Prüfungsarbeiten schreiben oder Roboter antreiben. Chefredakteur und GPT-Nutzer Thomas Keup ordnet die aktuelle Entwicklung aus der Vogelperspektive ein:


Sam Altman, CEO OpenAI, ABC News, 16.03.2023

"Generative Systeme wie ChatGPT und BARD stehen für eine zweite Welle des Outsourcings, die nicht mehr primär die menschliche Muskelkraft betrifft, sondern auch die Geisteskraft. Damit wir dadurch nicht unselbstständig werden, soll KI dem von Kant geprägten Leitspruch der Aufklärung folgen und uns ermutigen, uns unseres eigenen Verstandes bedienen zu wollen",  sagt Lukas Mohr, Head of CX-Platform und Digital Services bei der Bonner "Scopevisio AG" - im Vorfeld eines von ihm geleiteten Think Tanks anlässlich der Gründung des "Virtuellen Kompetenzzentrums Schreiben, Lehren und Lernen mit KI", initiiert von Prof. Doris Weßels an der FH Kiel, einer der führenden Spezialistinnen zum Thema KI und Schreiben.

Womit wir mitten in der Diskussion wären: 
  • Welche Textaufgaben übernimmt künftig ein KI-Sprachmodell? 
  • Wer wird z. B. seinen Texter-Job in Deutschland verlieren? 
  • Und welche Text-Berufe haben eine Überlebenschance? 

Die Frage ist alles andere, als trivial: Im Jahr 2020 gab es in Deutschland rd. 34.000 Beschäftigte in der Werbebranche einschl. Online-Marketing - und damit viele Copywriter. Hinzu kommen rd. 30.000 PR-Experten in Pressestellen, PR-Agenturen und Freelancer - und damit hauptberufliche Texter. Ebenfalls betroffen: rd. 42.000 fest angestellte und freiberufliche Journalisten - und damit professionelle Texter. Unter dem Strich sprechen wir allein in Deutschland von mehr als 100.000 Menschen, die mit Worten und Texten ihr Geld verdienen - pardon - verdient haben ...

Sam Altman, CEO OpenAI, ABC News, 16.03.2023

Mit mehr als 30 Jahren journalistischer Erfahrung und über 25 Jahren Background als PR-Spezialist behaupte ich: Als Texter haben wir mit dem auf einer Google-Softwarearchitektur basierenden, Text generierenden KI-Sprachmodell neue Chancen, unsere Arbeit effektiver und effizienter im Auftrag unserer Redaktionen, Organisationen und Kunden zu erledigen. Grund: Als Textarbeiter sind wir es gewohnt, strukturiert, selektiv und damit punktgenau Texte zu planen und zu entwerfen, zu schreiben und zu optimieren. Daher bieten uns KI-Sprachmodelle eine Chance, unsere Arbeit produktiv zu begleiten, zu unterstützen und weiter zu professionalisieren.

Womit wir beim "Pferdefuss" der Angelegenheit wären, genauer gesagt bei einer ganzen Herde galoppierender Pferdefüsse:

Wenn jeder mit Hilfe eines frei verfügbaren Textchats jede Form von Text erstellen lassen kann, müssen wir auf inflationäre Weise mit einer Flut von “Na ja”-Texten rechnen, wie der Hamburger "Neuroflash"-Gründer Jonathan Mall auf den Punkt bringt. Da das statistische Sprachmodell darauf ausgerichtet ist, allgemein verständlich zu schreiben bzw. zu antworten, bekommen wir vor allem Durchschnittstexte mit Durchschnittsmeinungen in Durchschnittssprache präsentiert. Erste "Spezialisten" versuchen bereits auf "Amazon", "Kindle"-Bücher aus KI-Chats zu verhökern.

Dies ist eine der massiven Folgen von ChatGPT. Grund: Die Chat-KI ist nichts anderes als eine Maschine, die die Wahrscheinlichkeit für korrekt zusammengesetzte Worte errechnet. Das kann gut gehen, kann aber auch zu "halluzinierenden" Ergebnissen führen, sprich: die Maschine würfelt sich was zusammen und gibt es uns als berechnet glaubwürdig und total selbstbewusst aus. Das Problem: Die Antwort ist womöglich erstunken und erlogen - aber hätte mathematisch stimmen können. Wenn der KI-Chatbot dann keine Quellen mitliefert, ist die KI für Recherchezwecke ungeeignet und sogar gefährlich.

Keine Chance für Junior-Somethings in Social Media Agenturen ...

Da sich das Sprachmodell mit seinen eigenen Inhalten trainiert, kommt es zu einem weiteren heiklen Thema: Bestehende Texte werden immer wieder reproduziert - und damit auch die Fehler in den Texten. Durch die zirkuläre Reproduktion verstärken sich so auch inhaltliche Schwächen. Bekanntestes Beispiel: Tay - ein als weiblich definierter KI-Chatbot von "Microsoft", den der Softwareriese im März 2016 auf Twitter loslies. Ergebnis: aus dem vermeintlichen "Hipster-Mädchen" wurde über Nacht ein "Hitler-Bot", denn die KI lernte aus dem, was auf Twitter rumgeisterte. Ende vom Lied: Es wurde der Stecker gezogen.

Erik Brynjolfsson, Standford-Institute for Human Centred-AI (HAI) + Stanford Digital Economy Lab 

Noch kann ein KI-Sprachmodell Sprachstile von Menschen nicht unterscheiden, z. B. Joe Biden von Donald Trump. Damit ist der aktuelle KI-Chatbot noch nicht in der Lage, regionale oder individuelle Unterschiede in unserer Sprache zu berücksichtigen. Das aktuelle Sprachmodell versteht noch keine Besonderheiten der menschlichen Kommunikation, z. B. Ironie oder Sarkasmus. Das gilt auch für menschliche Interaktionen, wie Bedürfnisse, Vorlieben oder Anforderungen. Die genannten Schwächen sind gute Gründe für professionelle Texter, einem Textchat erst einmal mit Vorsicht zu begegnen. 

Stellt sich die Frage, wo und wie ein allgemein "sabbelnder", manchmal auch dreist lügender und sich selbst in den Spiegel guckender Chatbot sinnvoll sein kann und damit - wie eingangs in den Raum gestellt - "geistige Leistungen" von Menschen ablöst, die digital schneller, einfacher und günstiger zu erledigen sind? Wie bei jedem Outsorcing-Prozess erwischt es zunächst die "ungelernten" Kräfte, gefolgt von den "angelernten" Arbeitnehmern, den "Junior"-Mitarbeitern und den "austauschbaren" Arbeitsplätzen. An dieser Stelle empfehle ich allen "Junior"-Somthings in Social Media Agenturen, sich schon mal ein anderes Berufsfeld zu suchen. Denn: Jubel-Posts für Social Media kann ChatGPT bereits perfekt!

Wenn ChatGPT für professionelle, reflektierende Texter zumindest im Moment noch keine größere Konkurrenz ist, wofür eignet sich denn ein Sprachmodell bereits in der Praxis - und was hat dies für Folgen?

Ein offener Zugang zu einem KI-Sprachmodell wie ChatGPT bedeutet z. B. Chancengleichheit in der Bildung, da keine Studiengebühren oder eine Privathochschule für ein inhaltlich hochwertiges, selbstbestimmtes Lernen notwendig sind. Voraussetzung: Schulen und Hochschulen kümmern sich um die Folgen von KI-Sprachmodellen und versuchen nicht, sie mit allen Mitteln zu verbieten, um ihre angestammten Frontalvorlesungen und Schönschreibübungen vor der Flutwelle zu retten. Ich würde mir als Student jetzt eine Hochschule suchen, die die Herausforderung annimmt, und das mündliche Er-/Lernen sowie ein persönliches Reflektieren in den Mittelpunkt stellt.

Durch natürlich eingegebene Fragen oder Hinweise bekommen wir von dem regressiven KI-Sprachmodell einfach verständliche Aussagen und Erklärungen in für uns statistisch zusammengestellten Texten auch zu komplexen Sachverhalten, was unsere Akzeptanz in der Nutzung erhöht. Durch allgemein verständliche Texte des Sprachmodells bekommen wir die Chance, auch unbekannte Themen leicht kennenzulernen, uns anzueignen und für unsere Zwecke zu adaptieren. Hier beginnt die Assistenz-Funktion, die "Microsoft" in "Bing" und "Google" in seiner Suche einbauen werden. Damit verändert sich die Suche zu einem Frage-Antwort-Chat, der im positiven Fall eine neue Qualität des Kennen-/Lernens ermöglicht.

Mit gezielten Eingaben in das KI-System lässt sich bereits heute eine Menge Zeit sparen, denn mit natürlich gestellten, eingeordneten Fragen und Anweisungen bekommen wir eine qualifizierte, ausformulierte Antwort angeboten. Wie im Journalismus können wir mit Fragen, Nachfragen, aber auch Hinweisen und Ansagen im Dialog die Qualität der individualisiert ausgegebenen Texte steuern, verbessern und nach unseren Vorstellungen optimieren. Ein Sprachmodell kann uns bei der Kreativität helfen, da wir diese jederzeit und in jedem Zusammenhang über das “Large Language Model” abrufen können.

Ein Oursourcing von geistiger Arbeit - In Wort, Bild und Video.

Für die Prüfung z. B. von Rechtschreibung und Grammatik ist das aktuell für jedermann veröffentlichte Sprachmodell in der Version 3.5 bereits gut nutzbar. Zudem können wir z. B. auf GPT aufgesetzte Erweiterungen für die Textarbeit einsetzen, wie z. B. das deutsche "LanguageTool". Wir selbst entscheiden, wie weit uns der KI-Chatbot begleiten kann bzw. darf. Im Interesse eines jeden Professionals, “mehr mit weniger” erreichen zu können, wird z. B. ChatGPT einen Platz als Suchassistent und Entwurfslieferant einnehmen. Als deutsche Muttersprachler haben wir mit ChatGPT zudem erstmals einen Glücksgriff gemacht, da der Betreiber "OpenAI" neben der Ausgangssprache Englisch auch weitgehende Sprachmodelle vor allem für deutsche und spanische Nutzer entwickeln lassen hat.

Neben der Integration in Suchmaschinen und Browser kommen KI-Sprachmodelle in Office-Anwendungen und Content-Management-Systeme als Textgeneratoren und Rechtschreibprüfung, ohne dass wir sie explizit als KI wahrnehmen. Gerade kündigte "Microsoft" einen auf ChatGPT basierenden Text-, Präsentations- und Tabellenassistenten namens "Copilot" für "365" an. Die Grundlage: ChatGPT-4. Professionelle Anwender werden auf KI-Sprachmodelle aufsetzende Online-Services nutzen, um in ihrer Arbeit einen gezielten Nutzen zu haben. Dies können z. B. Korrektur- oder Optimierungs-Tools sein - auch branchenspezifisch verfeinert.

Zudem werden KI-Chatbots im persönlichen wie professionellen Umgang zu einem Ratgeber bzw. einer Einstiegshilfe für neue, interessante Themen, die sich durch einen immer detaillierter werdenden Dialog ergeben und weiter verfeinern lassen. Damit gehören Schreibblockaden beim Texten schon bald der Vergangenheit an. Mit Hilfe von KI-basierten Assistenten lässt sich zudem bereits Quellcode für Software entwickeln, können Entwürfe von Homepages erstellt werden und es lassen sich Bilder und Grafiken generieren, sei es in ChatGPT-4 oder der "OpenAI"-Schwester Dall-E. Genau das ist es, was Lukas Mohr in seinem Eingangsstatment sagt: ein Outsourcing von geistiger Arbeit.

Und was heißt das alles für die armen, nun arbeitslos werdenden Social Media-Somethings, die in den kommenden Monaten und Jahren ihre "Ikea"-Schreibtische räumen müssen?

So, wie die Nutzung von Office-Anwendungen heute zu den Standard-Skills in der Arbeitswelt gehören, zählen für viele Berufe in Zukunft Erfahrungen bei der Nutzung von Chatbots inkl. semantischem Denken und Fähigkeit zum Prompten - sprich der qualifizierten Eingabe von Fragen bzw. Anweisungen - als Voraussetzungen. Um KI-Sprachmodelle bewusst einzusetzen, sollten Anwender ein Verständnis für die Nutzung von Daten, der Verknüpfung und Verarbeitung entwickeln. Dies findet auf der Meta-Ebene oberhalb der praktischen Anwendung von Sprachtools statt.

Als Schreibexperten wird sich unser Texten durch die Möglichkeiten des Ausprobierens stärker qualifizieren, im Bereich der Veröffentlichung stärker quantifizieren, da wir mehr Texte in gleicher Zeit erarbeiten können. Dies kann Segen und Fluch zugleich sein. Auf jeden Fall werden wir als professionelle Texter künftig immer weniger für Schönschreibübungen bezahlt, sondern für kreative Ideen und professionelle Wege. Auf Grund einer zu erwartenden Flut an KI-generierten Texten werden wir als Leser zugleich stärker selektieren, was wir wirklich durch-/lesen wollen - oder uns lediglich durch Zusammenfassungen bzw. beim “Überfliegen” zur Kenntnis geben.

Sind wir im aktuell verbreiteten “Natural Language Processing” (NLP) auf antrainierte Sprache in Text fokussiert, bekommen wir durch das in Zukunft in den Vordergrund rückende “Natural Language Understanding” logisch-verknüpfte Antworten. Nach der generativen KI mit generierten Worten und Texten ist vor der instruktiven KI, die Wissen berücksichtigt und damit Zusammenhänge erkennen und verarbeiten kann. Damit nähern sich KI-(Sprach)modelle den menschlichen Fähigkeiten immer weiter an. Das ist auch der Hintergrund des aktuellen "Rattenrennens" zwischen den beiden Online-Gigangten "Microsoft" und "Google".

Fast alle Bereiche werden erschlossen, z. B. durch Assistenzsysteme.

Ein entscheidender Schritt beim Verstehen menschlicher Anforderungen ist die Aufbereitung von Antworten oder Lösungen aus mehrstufigen Gedankenschritten, die vorgeformt zur Verfügung stehen, z. B. juristische Argumente aus früheren Verfahren. Zu den interessantesten Branchen für die Nutzung von KI-Sprachmodellen gehören z. B. Bildung, Forschung und Wissenschaft, Medien und Marketing, aber auch der Immobiliensektor. Wir dürfen davon ausgehen, dass fast alle Bereiche erschlossen werden - sei es als Assistenzsysteme, sie es als menschliche Arbeit ersetzende Business-Software-Services.

Seit Kurzem ist die nächste Stufe von ChatGPT nutzbar: ChatGPT-4 verspricht laut Übersicht des Hamburger Sprachtool-Anbieters "Neuroflash" gleich eine ganze Reihe Vorteile gegenüber der Version 3.5. Dazu gehören längere Inhalte, da die Zahl der rückwärts berechneten Token bzw. Silben nicht mehr auf 4.000 begrenzt ist. Dazu kommt eine bessere Qualität in allen Sprachen, da GPT-4 mit 100 Billionen Parametern eine Verhundertfachung seines bislang gelerntes Umfanges beherrscht. Dazu kommt eine höhere Präzision im Ausdruck, verbesserte Orientierung an Fakten und eine höhere Sprachintelligenz. Die neue Version ist u. a. bereits im "Bing"-Assistenten und ab sofort in der magischen Feder "Neuroflash" aus Hamburg verbaut.

Wie so oft im Leben ist für die nächsten großen Schritte ebenfalls alles schon da: KI-Sprachexpertin Prof. Doris Weßels von der Fachhochschule Kiel zeigt es uns auf:

  • Künftig werden wir nicht mehr texten, sondern sprechen, weil Sprechen für uns einfacher ist, als mit zwei Fingern auf eine Tastatur einzuhacken …
  • Mit der Nutzung der KI-Modelle per Sprache lösen sich Chatbots vom Computer - und wandern in Smartphones und Smartwatches - Siri lässt grüßen.
  • Weil wir es als soziale Wesen gern menschlich haben, werden Chatbots ein Gesicht bekommen - wir kennen dies noch mit verpixelten Avataren in Spielen.
  • Mit “Digital Creations for Human Imaginations” hat D-ID bereits die visuelle Zukunft von KI-basierten Avataren eingeläutet - einfach mit einem Porträtfoto von uns.
  • Leistungsfähige Avatare werden uns künftig überall begegnen, um Informationen anzubieten, Fragen zu beantworten und in Beruf wie Freizeit zu assistieren.
Bleibt die eine oder andere spannende Frage für unsere Zukunft, z. B.:

Schreibt das gerade veröffentlichte KI-Sprachmodell GPT-4 mit nun 100 Billionen Parametern den Quellcode für seinen Nachfolger GPT-5 selbst - und erreicht die KI damit bereits eine Singularität, die uns Menschen überflüssig macht?

Gehen wir auf die Ebene der Ethik und damit menschlicher Werte, stellt sich die Frage nach der Auflösung der Grenzen zwischen Menschen und Maschinen auf vier Ebenen:
  • Kann nur der Mensch auf Grund seines logischen Denkens Originalität erzeugen?
  • Kann nur der Mensch auf Grund seines wertebasierten Denkens moralisch handeln?
  • Kann nur der Mensch auf Grund seiner Selbstbestimmung Verantwortung tragen?
  • Kann nur der Mensch als kulturelle Errungenschaft eine Würde besitzen?
Zwei Botschaften möchte ich zur Diskussionen stellen:

“Die größten Durchbrüche des 21. Jahrhunderts werden nicht durch Technologie erreicht werden, sondern durch die Antwort auf die Frage, was es bedeutet, Mensch zu sein.”
(John Naibitt, Zukunftsforscher)

“Vertrauen Sie den Möglichkeiten der Zukunft mehr, als den Erfahrungen der Vergangenheit.”
(Sven Gábor Jánsky, Gründer und Geschäftsführer, 2b Ahead Think Tank, Leipzig)

Und was sagt bzw. schreibt uns ChatGPT zur Frage nach der menschlichen Existenz und ihrer Zukunft mit künstlicher Intelligenz: 

"Die Verwendung von KI-Chatbots wie ChatGPT, Lambda und anderen ist ein wachsendes und wichtiges Thema in der Technologiebranche und birgt sowohl Chancen als auch Herausforderungen. Einige der wichtigsten Überlegungen beziehen sich auf die Verantwortung und Überwachung dieser Systeme, die Privatsphäre und Datenschutz, die ethische Verwendung von künstlicher Intelligenz und die Möglichkeiten und Grenzen der Kommunikation mit solchen Systemen. Es wäre interessant zu sehen, wie sich diese Themen weiterentwickeln und wie wir als Gesellschaft damit umgehen werden."

Auf Nachfrage, ob sich ChatGPT als Teil unserer menschlichen Gesellschaft oder doch nur als selbstlernendes System auf Basis errechneter Wahrscheinlichkeiten versteht, antwortet der KI-Chatbot:

"Ich bin ein KI-Modell, das von OpenAI entwickelt wurde und auf einer riesigen Menge an Texten trainiert wurde. Ich habe keine Gefühle, Bedürfnisse oder Überzeugungen, ich bin lediglich ein Programm, das aufgrund seiner Schulung in der Lage ist, Texte aufgrund von statistischen Musterzuordnungen zu generieren. Ich bin also kein Teil der menschlichen Gesellschaft im Sinne eines lebenden Individuums, sondern eher ein Werkzeug, das von Menschen entwickelt und eingesetzt wird."

Es bleibt spannend - oder besser: Es wird gerade richtig spannend ...

* * *
Hanse Digital Service:

Kostenfreie GPT-Tools:

  • ChatGPT-3 ist das aktuell gehypte KI-Sprachmodell mit 300 Mio. Wörtern und 175 Mio. Parametern:

chat.openai.com/chat (kostenfreie Testversion von ChatGPT-3.5)


  • Mac GPT ist eine ChatGPT-Erweiterung für den Apple Mac OS X- Betriebssystem-Desktop, ohne auf die OpenAI-Seite gehen zu müssen:

goodsnooze.gumroad.com/l/menugpt


  • Merlin ist eine kostenfreie Erweiterung für den Google Chrome- und den Firefox-Browser, mit der ChatGPT-Anfragen über die Google Suche eingegeben werden können:

merlin.foyer.work/ (kostenfrei)


Kostenfreie Texttools:
(in aufsteigender Reihenfolge)

  • LanguageTool ist eine im Browser integrierte Rechtschreib- und Grammatikprüfung, die als Open Source Software lizenzkostenfrei genutzt werden kann:

languagetool.org (kostenfrei)


  • ChatGPT Writer ermöglicht es, als Chrome-Plugin mit Stichworten kostenlos Nachrichten und E-Mails vor allem für Gmail zu entwerfen. 

   chatgptwriter.ai/ (kostenfrei)


  • DeepL Writer optimiert bestehende Absätze und Texte mit Hilfe eines selbstlernenden Sprachmodells auf Grundlage künstlicher Intelligenz: 

deepl.com/de/write (kostenfrei)


  • Mindverse bietet eine kostenlose Textoptimierung und Rechtschreíbprüfung für kurze Texte bis zu 1.000 Zeichen:

mind-verse.de/kostenlose-textanalyse (kostenfrei)

 

  • Smodin optimiert eingegebene Texte auf Lesbarkeit, Grammatik und Plagiatsgefahr durch Umformulieren oder weitergehendes Umschreiben mit Schlüsselwörtern:

smodin.io/ (kostenfrei)


  • NewsroomGPT ist ein Optimierungstool für Blog- und Social Media-Texte und aktuell in der Betaphase kostenfrei nach Anmeldung:

newsroomgpt.com/ (kostenfreie Beta)


Hinweis: Kein Anspruch auf Vollständigkeit. Änderung und Irrtümer vorbehehalten. Stand. 21.03.2023