Posts mit dem Label Chatbot werden angezeigt. Alle Posts anzeigen
Posts mit dem Label Chatbot werden angezeigt. Alle Posts anzeigen

Dienstag, 2. April 2024

HANSEMACHINE: Die stille Revolution der KI-Sprachmodelle.

HANSE DIGITAL GASTBEITRAG

"Wir erleben eine historische Wende, vielleicht sogar den wichtigsten Moment seit der Markteinführung des iPhones. Jedenfalls wird dieser Moment das Silicon Valley verändern."
- Peter Thiel, Serien-Gründer und Investor, u. a. Founders Fund, San Francisco -


Das KI-Sprachmodell ChatGPT begeistert seine Nutzer.
Grafik: Alexandra Koch, Pixabay

Sprachmodelle wie ChatGPT sind derzeit in aller Munde. Kaum eine Technologie hat seit Erscheinen von ChatGPT-3 am 30. November 2022 für so viel Furore gesorgt, wie diese komplexen KI-Systeme, die menschliche Sprache in beeindruckender Qualität verstehen und generieren können. Wie funktionieren Sprachmodelle und welche Möglichkeiten eröffnen sie für unseren Alltag und die Arbeitswelt? Norddeutschlands KI-Experte Oliver Welling Blick blickt für HANSEVALLEY hinter die Kulissen dieser faszinierenden Technologie.

Rund 16.000 KI-Startups gibt es allein in den USA, über 6.000 in Europa und 300 in Deutschland. Diese Zahlen verdeutlichen die enorme Dynamik, mit der sich das Feld der Künstlichen Intelligenz entwickelt. Im Zentrum des Interesses steht dabei aktuell die "Generative KI". Hier handelt es sich um Systeme, die aus riesigen Datenmengen lernen, neuartige Inhalte wie Texte, Bilder oder Musik zu erschaffen. Das gemeinsame Fundament der Anwendungen sind sogenannte "Large Language Models" - kurz: Sprachmodelle.

Sprachmodelle eröffnen völlig neue Möglichkeiten der "Mensch-Maschine-Interaktion". Von virtuellen Assistenten über automatisierte Kundenkommunikation bis hin zu intelligenten Schreibwerkzeugen - die Einsatzgebiete sind vielfältig. Im Kern geht es darum, die Lücke zwischen menschlicher Sprache und Computersystemen zu schließen. Sprachmodelle verstehen natürliche Sprache, erkennen Kontexte und Nuancen. Sie antworten mit korrekter Grammatik, konsistenter Logik und sogar einem kreativem Ausdruck.

Das klingt beeindruckend. Doch wie funktionieren Sprachmodelle eigentlich? Im Grunde handelt es sich um komplexe Deep-Learning-Systeme, die mit riesigen Textdatenmengen trainiert werden. Sie lernen, die verborgenen Muster und Strukturen der Sprache zu erkennen und zu modellieren. Dafür kommen vor allem sogenannte "Transformer"-Architekturen zum Einsatz, die aus vielen Schichten künstlicher Neuronen bestehen.

Im Training analysiert das Sprachmodell Milliarden von Wörtern und Sätzen. Es lernt, wie Begriffe zusammenhängen, wie Sätze aufgebaut sind, wie sich Bedeutungen im Kontext entfalten. Nach und nach entwickelt es ein tiefes Verständnis für Sprache, das weit über starre Grammatik-Regeln hinausgeht. Am Ende steht ein Modell mit Milliarden von Parametern - eine Art digitales Gehirn, vollgepackt mit sprachlichem Wissen.

Einmal trainiert, lässt sich dieses Modell für vielfältige Aufgaben einsetzen - ein Prozess, der als "Fine-Tuning" bezeichnet wird. Ob Übersetzung, Textzusammenfassung oder kreatives Schreiben, das Grundmodell wird auf den spezifischen Anwendungsfall angepasst und optimiert. So entstehen spezialisierte Sprachmodelle, die in ihrem jeweiligen Gebiet oft verblüffende Ergebnisse liefern.

Doch nicht alle Sprachmodelle sind gleich. Je nach Anwendungsfall kommen unterschiedliche Architekturen und Optimierungsverfahren zum Einsatz. Generative Modelle wie GPT sind darauf trainiert, eigenständig Texte zu verfassen. Diskriminative Modelle wiederum analysieren und klassifizieren Texte, beispielsweise um Spam-Mails zu erkennen. Daneben gibt es spezialisierte Modelle für Dialog, Übersetzung oder Sentimentanalyse.

Welche Sprachmodelle gibt es konkret und wozu werden sie eingesetzt? Hier ein kurzer Überblick über einige der bekanntesten Vertreter:

ChatGPT von OpenAI gilt als ein Original unter den KI-Sprachmodellen.
Grafik: Franz26, Pixabay

1. OpenAI ChatGPT-4

Ein fortschrittliches Sprachmodell, entwickelt von OpenAI. ChatGPT-4 als Turbo Vision erweitert dabei die Funktionalitäten des ursprünglichen ChatGPT-4 durch verbesserte Fähigkeiten in der Verarbeitung und Generierung von natürlicher Sprache, kombiniert mit visuellen Verarbeitungskapazitäten, um ein tieferes Verständnis von Text- und Bildinhalten zu ermöglichen.

2. Google Gemini

Gemini beschreibt eine Reihe multimodaler Sprachmodelle von Google. Entwickelt von der Google-Tochter DeepMind, baut Gemini auf den Vorgängermodellen LaMDA und PaLM 2 auf und hebt deren Fähigkeiten auf ein neues Niveau. Mit der Verarbeitung von Text, Bild, Video, Audio und Code in drei Leistungsstufen - Nano, Pro und Ultra - eröffnet Gemini faszinierende Möglichkeiten. Seit der Vorstellung im Dezember 2023 beeindruckt diese state-of-the-art KI mit ihrer Vielseitigkeit und Leistungsfähigkeit.

3. Claude (Anthropic)


Anthropic stellt mit Claude 3 einen leistungsstarken KI-Chatbot vor, der selbst GPT-4 von OpenAI in den Schatten stellen soll. In drei Varianten - Haiku, Sonnet und Opus - verfügbar, beeindruckt Claude 3 mit verbesserten Analyse-, Vorhersage- und Leistungsfähigkeiten. Als erster multimodaler GenAI-Chatbot von Anthropic eröffnet er zudem neue Möglichkeiten in der Bildanalyse und setzt damit einen weiteren Meilenstein in der rasanten Entwicklung der Künstlichen Intelligenz.

4. Perplexity AI

Das Suchmaschinen-Startup revolutioniert die Suche im Internet durch die Verbindung eines leistungsstarken Chatbots mit einer intelligenten Suchmaschine. Im Gegensatz zu herkömmlichen Suchmaschinen ermöglicht Perplexity AI eine natürliche Konversation, bei der Fragen direkt beantwortet werden, anstatt nur Links zu liefern. Durch das Zitieren von Quellen und Websites schafft es Transparenz und Vertrauen in die gelieferten Informationen. Perplexity AI setzt neue Maßstäbe für die Suche und den Zugang zu Wissen im digitalen Zeitalter.

5. Mistral AI

Mistral AI ist ein aufstrebendes französisches Softwareunternehmen, hat sich seit seiner Gründung im April 2023 der Entwicklung innovativer KI-Lösungen verschrieben. Unter der Leitung der renommierten Forscher Arthur Mensch, Timothée Lacroix und Guillaume Lample, die zuvor bei Meta und Google DeepMind tätig waren, setzt Mistral AI neue Maßstäbe in der Welt der Open-Source-Sprachmodelle. Mit den leistungsstarken Modellen Mistral Large, Medium und Small bietet das Unternehmen über API-Schnittstellen eine breite Palette an Möglichkeiten für kommerzielle Anwendungen. Mistral AI positioniert sich als Vorreiter in der KI-Branche und ebnet den Weg für eine neue Ära der Sprachverarbeitung und -generierung.

6. AlephAlpha Luminous

Aleph Alpha, ein auf KI spezialisiertes Start-up aus Heidelberg, setzt mit seinem Sprachmodell Luminous neue Maßstäbe in Sachen Transparenz und Nachvollziehbarkeit. Durch eine innovative Erweiterung ist Luminous in der Lage, die Herkunft der generierten Antworten präzise anzugeben und auf mögliche Widersprüche in den Quellen hinzuweisen. Diese Fähigkeit, die Ursprünge der KI-generierten Inhalte offenzulegen, stellt einen bedeutenden Durchbruch dar und adressiert eines der Hauptprobleme aktueller KI-Sprachanwendungen wie ChatGPT. Mit diesem wegweisenden Ansatz ebnet Aleph Alpha den Weg für vertrauenswürdigere und zuverlässigere KI-Lösungen und unterstreicht seine Vorreiterrolle in der Entwicklung transparenter und nachvollziehbarer KI-Technologien.

7. Inflection Pi 2.5

Inflection Pi 2.5 verspricht eine bahnbrechende Kombination aus hoher Intelligenz und Empathie in der Welt der KI-Chatbots. Als eines der ersten Produkte von Inflection.AI, einem 2022 gegründeten Technologieunternehmen mit Sitz in Palo Alto, Kalifornien, setzt Pi 2.5 neue Maßstäbe in der generativen KI.

Basierend auf einem umfangreichen Datensatz aus Text und Code, ist Pi 2.5 in der Lage, beeindruckende Leistungen in Bereichen wie Textgenerierung, Übersetzung und kreativer Inhaltserstellung zu erbringen. Doch es ist nicht nur die rohe Leistungsfähigkeit, die Pi 2.5 auszeichnet. Durch die Integration von emotionaler Intelligenz (EQ) und einem hohen Intelligenzquotienten (IQ) schafft Inflection eine einzigartige Persönlichkeit, die sich durch Empathie und Einfühlungsvermögen auszeichnet.

8. Poe.com

Poe.com ist eine innovative Plattform, die Nutzern die Möglichkeit bietet, über eine zentrale Schnittstelle mit verschiedenen KI-Modellen wie ChatGPT, GPT-4, Claude 2, Claude 3, Mistral Small, Medium und Large, sowie viele Bild-KIs wie DALLE 3 zu interagieren. Diese benutzerfreundliche Lösung erleichtert den Zugang zu leistungsstarken KI-Technologien und ermöglicht es auch weniger erfahrenen Anwendern, die Vorteile dieser Modelle zu nutzen, ohne sich mit der Installation und Verwaltung einzelner Anwendungen auseinandersetzen zu müssen. Ein besonderes Merkmal von Poe.com ist die Möglichkeit, die Leistungsfähigkeit unterschiedlicher KI-Modelle direkt miteinander zu vergleichen.

Die Liste ließe sich beliebig fortsetzen, denn die Entwicklung schreitet rasant voran. Immer neue Sprachmodelle mit immer beeindruckenderen Fähigkeiten erobern den Markt. Doch wo Licht ist, da ist auch Schatten. Denn so faszinierend die Möglichkeiten von Sprachmodellen sind, so drängend sind auch die damit verbundenen Herausforderungen und Risiken.

Licht und Schatten im Reich der KI-Sprachmodelle

So beeindruckend die Fähigkeiten von Sprachmodellen sind, so sehr werfen sie ethische Fragen auf. Da ist zum einen das Thema Datenschutz: Auf welchen Daten wurden die Modelle trainiert und wie wird sichergestellt, dass keine persönlichen Informationen nach außen dringen? Zum anderen geht es um Verzerrungen und Vorurteile, die sich aus den Trainingsdaten in die Modelle einschleichen können.

Ein Beispiel: Wenn ein Sprachmodell hauptsächlich auf Texten aus westlichen Ländern trainiert wurde, kann es sein, dass es bestimmte kulturelle Kontexte nicht versteht oder Minderheiten stereotyp darstellt.

Ein zentrales Problem ist das Phänomen der "Halluzinationen" - Fehler und Verzerrungen in den generierten Inhalten. Sprachmodelle sind nicht allwissend, sondern nur so gut wie ihre Trainingsdaten. Wenn sie mit Anfragen konfrontiert werden, die über ihr Wissen hinausgehen, neigen sie dazu, "Fakten" zu erfinden. Das kann von harmlosen Ungenauigkeiten bis hin zur Verbreitung von Falschinformationen reichen.

Auch Fragen der Fairness und Verzerrung sind zu berücksichtigen. Sprachmodelle lernen aus den Daten, mit denen sie trainiert werden. Wenn diese Daten einseitig oder wirklich diskriminierend sind, kann sich das in den Ausgaben des Modells widerspiegeln. Stereotype und Vorurteile können so unbeabsichtigt verstärkt werden. Um dem entgegenzuwirken, sind sorgfältig kuratierte Datensätze und Methoden zur Erkennung und Reduzierung von Bias erforderlich.

Ein weiteres Risiko ist der potenzielle Missbrauch von Sprachmodellen. In den falschen Händen könnten sie zur Erstellung täuschend echter Fake News, Phishing-Mails oder Propagandatexte verwendet werden. Auch Cyberkriminelle zeigen zunehmendes Interesse an der Technologie. Es braucht robuste Sicherheitsmechanismen und klare Richtlinien, um einen verantwortungsvollen Einsatz zu gewährleisten.

Transparenz, ethische Richtlinien und Überprüfung

Es liegt also an den Entwicklern und der Gesellschaft als Ganzes, einen verantwortungsvollen Umgang mit dieser mächtigen Technologie zu finden. Dafür braucht es Transparenz, klare ethische Richtlinien und eine kontinuierliche Überprüfung der Systeme. Nur so können wir sicherstellen, dass Sprachmodelle zum Wohle der Menschheit eingesetzt werden.

Trotz dieser Herausforderungen ist klar: Sprachmodelle bieten ein enormes Potenzial, unsere Art zu kommunizieren und mit Computern zu interagieren, nachhaltig zu verändern. Sie sind mehr als nur eine technische Spielerei - sie sind eine Schlüsseltechnologie, die unsere Gesellschaft und die Wirtschaft in den kommenden Jahren prägen wird. KI ist kein neues Hype-Thema, es ist ein Paradigmenwechsel in sehr vielen verschiedenen Branchen zur gleichen Zeit.

Schon heute sehen wir, wie Sprachmodelle in immer mehr Bereiche unseres Lebens vordringen. Virtuelle Assistenten wie Siri oder Alexa nutzen Sprachmodelle, um unsere Anfragen zu verstehen und passende Antworten zu geben. Chatbots revolutionieren den Kundenservice und sind oft kaum noch von menschlichen Mitarbeitern zu unterscheiden. Und auch in der Arbeitswelt halten Sprachmodelle Einzug - sei es als intelligente Schreibhilfen, Übersetzungstools oder sogar als Unterstützung bei der Programmierung.

Doch das ist nur der Anfang. Experten sind sich einig, dass das wahre Potenzial von Sprachmodellen noch lange nicht ausgeschöpft ist. Mit immer leistungsfähigeren Systemen und neuen Anwendungsszenarien stehen uns in den kommenden Jahren tiefgreifende Veränderungen bevor.

So könnten Sprachmodelle etwa die Grundlage für wirklich intelligente Tutorsysteme bilden, die individuell auf die Bedürfnisse und Lernfortschritte von Schülern und Studenten eingehen. In der Medizin könnten sie helfen, riesige Mengen an Studien und Patientendaten zu analysieren, um neue Erkenntnisse zu gewinnen und Diagnosen zu verbessern. Und auch in der Forschung eröffnen sich völlig neue Möglichkeiten, wenn Sprachmodelle bei der Analyse komplexer Textdaten unterstützen, oder Materialforschung in einem Bruchteil der bisherigen Zeit durchführen.

Eines ist sicher: Die stille Revolution der Sprachmodelle hat gerade erst begonnen. Je besser wir verstehen, wie diese faszinierende Technologie funktioniert und welche Möglichkeiten sie bietet, desto besser können wir sie zum Wohle der Menschheit einsetzen.

Es liegt an uns allen, diesen Wandel aktiv mitzugestalten. Dafür braucht es einen offenen und informierten Diskurs, der technische Aspekte ebenso berücksichtigt wie ethische und gesellschaftliche Fragen. Nur wenn wir die Entwicklung von Sprachmodellen transparent und verantwortungsvoll gestalten, können wir ihr volles Potenzial ausschöpfen - und gleichzeitig die Risiken minimieren.

Über KI-Experte und Publizist Oliver Welling:

Foto: Oliver Welling, privat
Oliver Welling hat digitale DNA im Blut: Heute 56, hatte Oliver bereits mit 14 den ersten PC. Den ersten Chatbot hat Oliver schon 1987 mit "ELIZA" kennengelernt. Die Faszination für IT und digitale Wirtschaft mündete in der Gründung der Digital-Agentur "Spot-Media", die Oliver als Vorstandsvorsitzender führte und 2008 verkaufte. Seitdem hat er strategische Unternehmensberatung im deutschen Mittelstand durchgeführt. 


Als Kurator des "Reeperbahnfestivals" konnte er das Thema Künstliche Intelligenz nicht nur in Hamburg weiter vorantreiben. Als Gründer der KINEWS24.de berichtet er täglich über aktuelle News und die besten Tools auf dem Markt. Heute berät er mittelständische Unternehmen beim Einsatz von KI zur Steigerung von Effizienz, hält Vorträge über das Thema und hilft Unternehmen die eigene KI-Strategie zu entwickeln.

 Hanse Digital Background: 

Gastbeitrag Oliver Welling:
"Prompt Engineering - Mit besseren Prompts zu viel besseren Ergebnissen"
hansevalley.de/2024/02/hansemachine-gastbeitrag-olliverwelling.html


 Hanse Digital Service: 

HANSEMACHINE - Das Hanse KI Magazin:

Oliver Welling bei LinkedIn: 
linkedin.com/in/oliver-welling-58529653/

Die KINEWS24 im Netz:

Dienstag, 18. April 2023

HANSEMACHINE: GPT 3.5 vs. 4.0 - Ein Experten-Chat, was besser ist.

HANSE KI MAGAZIN

"GPT-4 hat gegenüber GPT-3.5 einige Verbesserungen implementiert, um noch größeren Mehrwert für Nutzer zu bieten."
- Jonathan Mall, Gründer und CIO von Neuroflash aus Hamburg -

Ab sofort können wir mit KI-Tools reden, genauer gesagt, chatten.
Grafik: Neuroflash AI Image Generator

Das KI-Sprachmodell GPT von OpenAI ist seit Veröffentlichung Ende November '23 in aller Munde. Mit GPT-3.5 als kostenfrei nutzbare Betaversion und GPT-4 sind nun zwei Versionen des Textgenerators online und für Texte und mehr nutzbar. Welche Version ist für welche Aufgabe besser geeignet? Sollte ich das kostenpflichtige ChatGPT 4 nutzen, oder reicht 3.5 aus?

Das junge Hamburger Unternehmen Neuroflash ist einer der Vorreiter für KI-basierte Texttools. Mehr als 100 verschiedene Textarten können mit den Online-Vorlagen der "magischen Feder" erstellt werden. Gründer Jonathan Mall ist einer der klugen Köpfe hinter der Content Generator Suite. Wir haben Ihn zur aktuellen Entwicklung interviewt:

GPT-3.5 und GPT-4 – Was ist heisst das?

Du hast vielleicht schon von GPT-3 gehört, aber kennst du auch GPT 3.5? Es handelt sich hierbei um eine verbesserte Version des bekannten Sprachmodells von OpenAI. GPT-3.5 bietet eine höhere Leistungsfähigkeit und Genauigkeit als sein Vorgänger und kann somit noch komplexere Aufgaben bewältigen. 

Es handelt sich bei GPT-3.5 um ein künstliches sowie neuronales Netzwerk, das darauf trainiert wurde, natürliche Sprache zu verstehen und auch zu generieren. Das Modell kann Texte schreiben, Fragen beantworten und sogar Übersetzungen anfertigen. Damit ist GPT-3.5 einen Schritt näher, die menschliche Sprache perfekt zu beherrschen und wiederzugeben.

Jetzt weißt du, worum es sich bei GPT-3 handelt. Doch wie sieht es mit GPT-4 aus? GPT-4 ist die neueste Version des OpenAI Sprachmodells nach GPT-3.5 und verspricht, noch leistungsstärker zu sein als sein Vorgänger. GPT-4 soll beispielsweise in der Lage sein, noch komplexere Texte zu generieren und sogar menschenähnliche Konversationen zu führen.

Außerdem kann GPT-4 zusätzlich zum Text auch Bilder verstehen. Obwohl GPT-4 erst veröffentlicht wurde, sind viele User bereits gespannt auf dessen Fähigkeiten und darauf, wie das Sprachmodell die KI-Textgenerierung weiter revolutionieren wird. Es bleibt abzuwarten, ob GPT-4 wirklich so beeindruckend sein wird, wie die Idee es verspricht, aber sicher ist, dass die Zukunft der KI-Textgenerierung aufregend bleibt.

Vergleichen wir die beiden Modelle: Wo sind die Unterschiede?

Wenn wir die beiden Modelle GPT-3.5 und GPT-4 miteinander vergleichen, gibt es einige signifikante Unterschiede. Zum Beispiel ist GPT-4 in der Lage, komplexere Aufgaben zu bewältigen, als GPT-3.5. Der größte Unterschied zwischen GPT-3.5 und GPT-4 besteht damit in der Leistungsfähigkeit der Modelle. GPT-3.5 kann Text mit geringerer Genauigkeit erzeugen, während GPT-4 Texte in höherer Qualität produzieren kann.

GPT-4 kann dazu auch eine viel größere Menge an Daten verarbeiten und somit bessere Ergebnisse liefern. Im Vergleich zu GPT-3.5, das bis zu 3.000 Wörter als Eingabeaufforderung verarbeiten kann, kann GPT-4 bis zu 25.000 Wörter Eingabeaufforderung inklusive visuellem Input verarbeiten. 

Schließlich ist GPT-4 ein noch intelligenteres System. GPT-3.5 gehörte nach der BAR-Prüfung zu den untersten 10 % der getesteten Systeme, doch GPT-4 übertrifft 90 % aller Kandidaten. Dazu kommt, dass GPT-4 noch mehr Sprachen als GPT-3.5 versteht, wie zum Beispiel auch Lettisch, Thai oder Swahili.

Welche Verbesserungen hat GPT-4 gegenüber GPT-3.5?

GPT-4 hat gegenüber GPT-3.5 einige Verbesserungen implementiert, um noch größeren Mehrwert für Nutzer zu bieten. Gemäß OpenAI, zeichnet sich das GPT-4 Sprachmodell der nächsten Generation durch bedeutende Fortschritte in vier zentralen Bereichen aus:
  • Innovationskraft: Hinsichtlich der Innovationsfähigkeit zeigt sich GPT-4 als äußerst leistungsfähig, vor allem wenn es darum geht, kreative Vorhaben zu realisieren. Hierzu zählen etwa musikalische Kompositionen, Filmdrehbücher, technische Texte und sogar das Adaptieren des individuellen Schreibstils eines Nutzers.
  • Visuelle Informationen: Als ein multimodales Modell kann GPT-4 auch Bildmaterial als Basis für Interaktionen erkennen und verarbeiten. Dies ermöglicht es Nutzern, in Zukunft nicht nur textbezogene, sondern auch visuelle Eingaben zu tätigen.
  • Größerer Kontext: Das Verständnis von langem Kontext ist bei GPT-4 eine weitere bedeutsame Verbesserung. Das Sprachmodell hat die Fähigkeit, bis zu 25.000 Wörter von Nutzern zu verarbeiten. Es ist sogar möglich, GPT-4 einen Weblink zu schicken und es um Interaktion mit dem Text auf der Website zu bitten. OpenAI betont, dass dies nützlich für die Erstellung von umfangreichen Inhalten sowie für längere Gespräche sein kann.
  • Verlässlichkeit: GPT-4 zeichnet sich durch seine erhöhte Verlässlichkeit aus. Nach internen Untersuchungen von OpenAI zu urteilen, kann es 40 % fundiertere Antworten liefern. Dabei sinkt die Wahrscheinlichkeit, dass es auf falsche Inhalte eingeht, um beeindruckende 82 %.

Zusammenfassend lässt sich sagen, dass sich die Entwickler bei GPT-4 auf die Verbesserung der Sprachmodellierung konzentriert haben, um die Leistung von GPT-4 zu erhöhen. Eine der wichtigsten Verbesserungen ist die Fähigkeit, mehr Kontext zu verstehen und zu verwenden, um bessere Ergebnisse zu generieren. 

So kann GPT-4 vor allem komplexere Zusammenhänge besser verarbeiten. Darüber hinaus wurde die Fähigkeit zur Generierung von Texten verbessert, was bedeutet, dass GPT-4 in der Lage ist, noch menschenähnlichere Sätze und Absätze zu erstellen. All diese Verbesserungen machen GPT-4 zu einem beeindruckenden Sprachmodell, das uns sicherlich in Zukunft noch mehr beeindrucken wird.

Ist GPT-4 also in jedem Fall die bessere Version?

Es ist wichtig, die Stärken und Schwächen beider Modelle im Vergleich zueinander zu betrachten. Zuerst sollte man berücksichtigen, dass ein GPT-3.5-Textgenerator grundlegende Aufgaben momentan (noch) schneller bewältigen kann als GPT-4 – aufgrund seiner reduzierten Parameteranzahl und der kleineren Menge an zu verarbeitenden Daten. Daher ist es für kleinere und elementare Aufgaben häufig ratsam, GPT-3.5 anstelle von GPT-4 zu verwenden. 

Dennoch erfordern komplexere Aufgaben einen umfangreicheren Parametersatz und eine größere Datenmenge. Hier zeigt sich der Nutzen von GPT-4: Es ermöglicht eine höhere Präzision bei anspruchsvollen Aufgaben und liefert somit bessere Ergebnisse. Alles in allem lässt sich aber grundsätzlich sagen, dass noch Uneinigkeit darüber herrscht, welches Modell besser ist. 

Bis jetzt haben beide Modelle weiterhin einen großen Nutzen für Verbraucher, denn letztendlich ist persönliche Präferenz bei der Auswahl des Sprachmodells für die spezifische Anwendung entscheidend.

Und Dein persönliches Fazit als KI-Experte?

Zunächst einmal ist klar, dass beide Modelle beeindruckende Fortschritte in der Textgenerierung gemacht haben. GPT-4 scheint jedoch in einigen Bereichen noch einen Schritt weiter zu sein als sein Vorgänger. Insbesondere die Fähigkeit, komplexe Zusammenhänge zu verstehen und zu verarbeiten, ist ein großer Fortschritt. 

Letztendlich hängt die Wahl des richtigen Modells von den individuellen Bedürfnissen der Nutzer ab. Wenn du eine Textgenerierung benötigst, die komplexere Zusammenhänge verarbeiten kann, ist GPT-4 definitiv die bessere Wahl. Wenn du jedoch eine Textgenerierung benötigst, die natürliche Sprache schnell und effektiv generieren kann, ist GPT-3.5 immer noch eine hervorragende Alternative.

Vielen Dank für die fundierten Einblicke!

Das Interview führte Thomas Keup.

*  *  *

Über Jonathan Mall

Dr. Jonathan T. Mall ist Chief Innovation Officer von Neuroflash und hat nach seiner Promotion in Neuropsychologie vor allem im Bereich Big Data und visueller sowie semantischer Marketing-Optimierung gearbeitet. 

Neuromarketing und die Etablierung wissenschaftlicher Methoden in quantitativer Marktforschung stehen in seiner Arbeit klar im Fokus.


Über Neuroflash


Die Neuroflash GmbH ist ein Softwareunternehmen mit Sitz in Hamburg und versteht sich als deutsches Pendant zur ChatGPT. Die Gesellschaft wurde 2021 gegründet und hat heute zehn Mitarbeiterinnen und Mitarbeiter. 

Neuroflash generiert als SaaS die besten deutschen Texte in der DACH-Region. Die "magische Feder" von neuroflash hilft dabei mehrfach: 

Als bisher günstigste Lösung mit kostenfreier Einstiegsvariante können auch Selbstständige und KMUs in Sekundenschnelle Textideen erhalten und viel effizienter arbeiten. Von der Ideenfindung bis hin zum finalen Text, die hohe Variabilität beim Schreiben und das Optimieren der Wirksamkeit von Botschaften, wird in einer Software gelöst.

*  *  *
 Hanse Digital Background: 

HANSEFUTURE:
ChatGPT & Co - Das Outsourcing geistiger Arbeit hat begonnen!

HANSEMACHINE Bard, ChatGPT & Co.:
Das geht mit den neuen KI-Chatbots in Marketing und Business.

Dienstag, 21. März 2023

HANSEFUTURE: ChatGPT & Co - Das Outsourcing geistiger Arbeit hat begonnen!

HANSE DIGITAL FUTURE
- 1.100 Leser. Und Sie. -

Erstmals werden uns mit ChatGPT die künftigen Möglichkeiten künstlicher Intelligenz bewusst.
(Illustration: Kushinuke McFly, Pixabay)

Die US-Jobbörse "Resumebuilder" hat 1.000 Geschäftsführer zum Umgang mit ChatGPT befragt. 49 Prozent setzen den Chatbot bereits in ihrem Unternehmen ein, 30 % planen die Verwendung zumindest.

99 % der Unternehmen, in denen ChatGPT schon genutzt wird, sprechen von maßgeblichen Ersparnissen durch das Tool. 48 % wollen dabei mehr als 50.000,- $ eingespart haben, elf Prozent sogar mehr als 100.000,- $. Der Blick aufs Sprachmodell ist positiv geprägt, 55 % bezeichnen die Performance von ChatGPT als „exzellent“.


66 % der Befragten, die das Sprachmodell nutzen, verwenden es zum Schreiben von Code, 58 % zum Verfassen von Text-Inhalten. 57 % nutzen die KI-Unterstützung im Kundensupport und 52 % zum Verfassen von Besprechungsprotokollen.


32 % der Befragten gehen davon aus, dass ChatGPT in den nächsten fünf Jahren „auf jeden Fall“ zu Entlassungen führen wird, 31 % halten das für „wahrscheinlich“.

(Quelle: t3n.de News, 27.02.2023)


Was machen 10.000 Nividia Tesla GPUs V100 und bis zu 20 Mio. $ Investition für das Training einer KI möglich? Ein bis Juni 2021 mit 45 TB Daten und 176 Mrd. Wortsilben (Token) eigentlich dummes Plappermaul, das Menschen auf der ganzen Welt auch durch sein Selbstbewusstsein fasziniert. Mit der exponentiellen Nutzung von ChatGPT seit 30. November 2022 scheint eine neue Zeitrechnung angebrochen zu sein: die Zeit vor ChatGPT als erstem universellen Sprachdialogsystem - und die Zeit danach. Auch wenn GPT-3 seit Juni 2020 existiert.

Sprechen die einen von einer echten Revolution, die das Leben aller Menschen verändern wird, befürchten die anderen bereits eine Konkurrenz von Mensch und Maschine, verbunden mit der alles entscheidenden Frage nach unserer Existenz. Wie in jedem Entwicklungs- oder Produkt-Zyklus probieren die "Innovatoren" in der aktuellen Phase als “First Mover” aus, was möglich ist - ob Software coden, Prüfungsarbeiten schreiben oder Roboter antreiben. Chefredakteur und GPT-Nutzer Thomas Keup ordnet die aktuelle Entwicklung aus der Vogelperspektive ein:


Sam Altman, CEO OpenAI, ABC News, 16.03.2023

"Generative Systeme wie ChatGPT und BARD stehen für eine zweite Welle des Outsourcings, die nicht mehr primär die menschliche Muskelkraft betrifft, sondern auch die Geisteskraft. Damit wir dadurch nicht unselbstständig werden, soll KI dem von Kant geprägten Leitspruch der Aufklärung folgen und uns ermutigen, uns unseres eigenen Verstandes bedienen zu wollen",  sagt Lukas Mohr, Head of CX-Platform und Digital Services bei der Bonner "Scopevisio AG" - im Vorfeld eines von ihm geleiteten Think Tanks anlässlich der Gründung des "Virtuellen Kompetenzzentrums Schreiben, Lehren und Lernen mit KI", initiiert von Prof. Doris Weßels an der FH Kiel, einer der führenden Spezialistinnen zum Thema KI und Schreiben.

Womit wir mitten in der Diskussion wären: 
  • Welche Textaufgaben übernimmt künftig ein KI-Sprachmodell? 
  • Wer wird z. B. seinen Texter-Job in Deutschland verlieren? 
  • Und welche Text-Berufe haben eine Überlebenschance? 

Die Frage ist alles andere, als trivial: Im Jahr 2020 gab es in Deutschland rd. 34.000 Beschäftigte in der Werbebranche einschl. Online-Marketing - und damit viele Copywriter. Hinzu kommen rd. 30.000 PR-Experten in Pressestellen, PR-Agenturen und Freelancer - und damit hauptberufliche Texter. Ebenfalls betroffen: rd. 42.000 fest angestellte und freiberufliche Journalisten - und damit professionelle Texter. Unter dem Strich sprechen wir allein in Deutschland von mehr als 100.000 Menschen, die mit Worten und Texten ihr Geld verdienen - pardon - verdient haben ...

Sam Altman, CEO OpenAI, ABC News, 16.03.2023

Mit mehr als 30 Jahren journalistischer Erfahrung und über 25 Jahren Background als PR-Spezialist behaupte ich: Als Texter haben wir mit dem auf einer Google-Softwarearchitektur basierenden, Text generierenden KI-Sprachmodell neue Chancen, unsere Arbeit effektiver und effizienter im Auftrag unserer Redaktionen, Organisationen und Kunden zu erledigen. Grund: Als Textarbeiter sind wir es gewohnt, strukturiert, selektiv und damit punktgenau Texte zu planen und zu entwerfen, zu schreiben und zu optimieren. Daher bieten uns KI-Sprachmodelle eine Chance, unsere Arbeit produktiv zu begleiten, zu unterstützen und weiter zu professionalisieren.

Womit wir beim "Pferdefuss" der Angelegenheit wären, genauer gesagt bei einer ganzen Herde galoppierender Pferdefüsse:

Wenn jeder mit Hilfe eines frei verfügbaren Textchats jede Form von Text erstellen lassen kann, müssen wir auf inflationäre Weise mit einer Flut von “Na ja”-Texten rechnen, wie der Hamburger "Neuroflash"-Gründer Jonathan Mall auf den Punkt bringt. Da das statistische Sprachmodell darauf ausgerichtet ist, allgemein verständlich zu schreiben bzw. zu antworten, bekommen wir vor allem Durchschnittstexte mit Durchschnittsmeinungen in Durchschnittssprache präsentiert. Erste "Spezialisten" versuchen bereits auf "Amazon", "Kindle"-Bücher aus KI-Chats zu verhökern.

Dies ist eine der massiven Folgen von ChatGPT. Grund: Die Chat-KI ist nichts anderes als eine Maschine, die die Wahrscheinlichkeit für korrekt zusammengesetzte Worte errechnet. Das kann gut gehen, kann aber auch zu "halluzinierenden" Ergebnissen führen, sprich: die Maschine würfelt sich was zusammen und gibt es uns als berechnet glaubwürdig und total selbstbewusst aus. Das Problem: Die Antwort ist womöglich erstunken und erlogen - aber hätte mathematisch stimmen können. Wenn der KI-Chatbot dann keine Quellen mitliefert, ist die KI für Recherchezwecke ungeeignet und sogar gefährlich.

Keine Chance für Junior-Somethings in Social Media Agenturen ...

Da sich das Sprachmodell mit seinen eigenen Inhalten trainiert, kommt es zu einem weiteren heiklen Thema: Bestehende Texte werden immer wieder reproduziert - und damit auch die Fehler in den Texten. Durch die zirkuläre Reproduktion verstärken sich so auch inhaltliche Schwächen. Bekanntestes Beispiel: Tay - ein als weiblich definierter KI-Chatbot von "Microsoft", den der Softwareriese im März 2016 auf Twitter loslies. Ergebnis: aus dem vermeintlichen "Hipster-Mädchen" wurde über Nacht ein "Hitler-Bot", denn die KI lernte aus dem, was auf Twitter rumgeisterte. Ende vom Lied: Es wurde der Stecker gezogen.

Erik Brynjolfsson, Standford-Institute for Human Centred-AI (HAI) + Stanford Digital Economy Lab 

Noch kann ein KI-Sprachmodell Sprachstile von Menschen nicht unterscheiden, z. B. Joe Biden von Donald Trump. Damit ist der aktuelle KI-Chatbot noch nicht in der Lage, regionale oder individuelle Unterschiede in unserer Sprache zu berücksichtigen. Das aktuelle Sprachmodell versteht noch keine Besonderheiten der menschlichen Kommunikation, z. B. Ironie oder Sarkasmus. Das gilt auch für menschliche Interaktionen, wie Bedürfnisse, Vorlieben oder Anforderungen. Die genannten Schwächen sind gute Gründe für professionelle Texter, einem Textchat erst einmal mit Vorsicht zu begegnen. 

Stellt sich die Frage, wo und wie ein allgemein "sabbelnder", manchmal auch dreist lügender und sich selbst in den Spiegel guckender Chatbot sinnvoll sein kann und damit - wie eingangs in den Raum gestellt - "geistige Leistungen" von Menschen ablöst, die digital schneller, einfacher und günstiger zu erledigen sind? Wie bei jedem Outsorcing-Prozess erwischt es zunächst die "ungelernten" Kräfte, gefolgt von den "angelernten" Arbeitnehmern, den "Junior"-Mitarbeitern und den "austauschbaren" Arbeitsplätzen. An dieser Stelle empfehle ich allen "Junior"-Somthings in Social Media Agenturen, sich schon mal ein anderes Berufsfeld zu suchen. Denn: Jubel-Posts für Social Media kann ChatGPT bereits perfekt!

Wenn ChatGPT für professionelle, reflektierende Texter zumindest im Moment noch keine größere Konkurrenz ist, wofür eignet sich denn ein Sprachmodell bereits in der Praxis - und was hat dies für Folgen?

Ein offener Zugang zu einem KI-Sprachmodell wie ChatGPT bedeutet z. B. Chancengleichheit in der Bildung, da keine Studiengebühren oder eine Privathochschule für ein inhaltlich hochwertiges, selbstbestimmtes Lernen notwendig sind. Voraussetzung: Schulen und Hochschulen kümmern sich um die Folgen von KI-Sprachmodellen und versuchen nicht, sie mit allen Mitteln zu verbieten, um ihre angestammten Frontalvorlesungen und Schönschreibübungen vor der Flutwelle zu retten. Ich würde mir als Student jetzt eine Hochschule suchen, die die Herausforderung annimmt, und das mündliche Er-/Lernen sowie ein persönliches Reflektieren in den Mittelpunkt stellt.

Durch natürlich eingegebene Fragen oder Hinweise bekommen wir von dem regressiven KI-Sprachmodell einfach verständliche Aussagen und Erklärungen in für uns statistisch zusammengestellten Texten auch zu komplexen Sachverhalten, was unsere Akzeptanz in der Nutzung erhöht. Durch allgemein verständliche Texte des Sprachmodells bekommen wir die Chance, auch unbekannte Themen leicht kennenzulernen, uns anzueignen und für unsere Zwecke zu adaptieren. Hier beginnt die Assistenz-Funktion, die "Microsoft" in "Bing" und "Google" in seiner Suche einbauen werden. Damit verändert sich die Suche zu einem Frage-Antwort-Chat, der im positiven Fall eine neue Qualität des Kennen-/Lernens ermöglicht.

Mit gezielten Eingaben in das KI-System lässt sich bereits heute eine Menge Zeit sparen, denn mit natürlich gestellten, eingeordneten Fragen und Anweisungen bekommen wir eine qualifizierte, ausformulierte Antwort angeboten. Wie im Journalismus können wir mit Fragen, Nachfragen, aber auch Hinweisen und Ansagen im Dialog die Qualität der individualisiert ausgegebenen Texte steuern, verbessern und nach unseren Vorstellungen optimieren. Ein Sprachmodell kann uns bei der Kreativität helfen, da wir diese jederzeit und in jedem Zusammenhang über das “Large Language Model” abrufen können.

Ein Oursourcing von geistiger Arbeit - In Wort, Bild und Video.

Für die Prüfung z. B. von Rechtschreibung und Grammatik ist das aktuell für jedermann veröffentlichte Sprachmodell in der Version 3.5 bereits gut nutzbar. Zudem können wir z. B. auf GPT aufgesetzte Erweiterungen für die Textarbeit einsetzen, wie z. B. das deutsche "LanguageTool". Wir selbst entscheiden, wie weit uns der KI-Chatbot begleiten kann bzw. darf. Im Interesse eines jeden Professionals, “mehr mit weniger” erreichen zu können, wird z. B. ChatGPT einen Platz als Suchassistent und Entwurfslieferant einnehmen. Als deutsche Muttersprachler haben wir mit ChatGPT zudem erstmals einen Glücksgriff gemacht, da der Betreiber "OpenAI" neben der Ausgangssprache Englisch auch weitgehende Sprachmodelle vor allem für deutsche und spanische Nutzer entwickeln lassen hat.

Neben der Integration in Suchmaschinen und Browser kommen KI-Sprachmodelle in Office-Anwendungen und Content-Management-Systeme als Textgeneratoren und Rechtschreibprüfung, ohne dass wir sie explizit als KI wahrnehmen. Gerade kündigte "Microsoft" einen auf ChatGPT basierenden Text-, Präsentations- und Tabellenassistenten namens "Copilot" für "365" an. Die Grundlage: ChatGPT-4. Professionelle Anwender werden auf KI-Sprachmodelle aufsetzende Online-Services nutzen, um in ihrer Arbeit einen gezielten Nutzen zu haben. Dies können z. B. Korrektur- oder Optimierungs-Tools sein - auch branchenspezifisch verfeinert.

Zudem werden KI-Chatbots im persönlichen wie professionellen Umgang zu einem Ratgeber bzw. einer Einstiegshilfe für neue, interessante Themen, die sich durch einen immer detaillierter werdenden Dialog ergeben und weiter verfeinern lassen. Damit gehören Schreibblockaden beim Texten schon bald der Vergangenheit an. Mit Hilfe von KI-basierten Assistenten lässt sich zudem bereits Quellcode für Software entwickeln, können Entwürfe von Homepages erstellt werden und es lassen sich Bilder und Grafiken generieren, sei es in ChatGPT-4 oder der "OpenAI"-Schwester Dall-E. Genau das ist es, was Lukas Mohr in seinem Eingangsstatment sagt: ein Outsourcing von geistiger Arbeit.

Und was heißt das alles für die armen, nun arbeitslos werdenden Social Media-Somethings, die in den kommenden Monaten und Jahren ihre "Ikea"-Schreibtische räumen müssen?

So, wie die Nutzung von Office-Anwendungen heute zu den Standard-Skills in der Arbeitswelt gehören, zählen für viele Berufe in Zukunft Erfahrungen bei der Nutzung von Chatbots inkl. semantischem Denken und Fähigkeit zum Prompten - sprich der qualifizierten Eingabe von Fragen bzw. Anweisungen - als Voraussetzungen. Um KI-Sprachmodelle bewusst einzusetzen, sollten Anwender ein Verständnis für die Nutzung von Daten, der Verknüpfung und Verarbeitung entwickeln. Dies findet auf der Meta-Ebene oberhalb der praktischen Anwendung von Sprachtools statt.

Als Schreibexperten wird sich unser Texten durch die Möglichkeiten des Ausprobierens stärker qualifizieren, im Bereich der Veröffentlichung stärker quantifizieren, da wir mehr Texte in gleicher Zeit erarbeiten können. Dies kann Segen und Fluch zugleich sein. Auf jeden Fall werden wir als professionelle Texter künftig immer weniger für Schönschreibübungen bezahlt, sondern für kreative Ideen und professionelle Wege. Auf Grund einer zu erwartenden Flut an KI-generierten Texten werden wir als Leser zugleich stärker selektieren, was wir wirklich durch-/lesen wollen - oder uns lediglich durch Zusammenfassungen bzw. beim “Überfliegen” zur Kenntnis geben.

Sind wir im aktuell verbreiteten “Natural Language Processing” (NLP) auf antrainierte Sprache in Text fokussiert, bekommen wir durch das in Zukunft in den Vordergrund rückende “Natural Language Understanding” logisch-verknüpfte Antworten. Nach der generativen KI mit generierten Worten und Texten ist vor der instruktiven KI, die Wissen berücksichtigt und damit Zusammenhänge erkennen und verarbeiten kann. Damit nähern sich KI-(Sprach)modelle den menschlichen Fähigkeiten immer weiter an. Das ist auch der Hintergrund des aktuellen "Rattenrennens" zwischen den beiden Online-Gigangten "Microsoft" und "Google".

Fast alle Bereiche werden erschlossen, z. B. durch Assistenzsysteme.

Ein entscheidender Schritt beim Verstehen menschlicher Anforderungen ist die Aufbereitung von Antworten oder Lösungen aus mehrstufigen Gedankenschritten, die vorgeformt zur Verfügung stehen, z. B. juristische Argumente aus früheren Verfahren. Zu den interessantesten Branchen für die Nutzung von KI-Sprachmodellen gehören z. B. Bildung, Forschung und Wissenschaft, Medien und Marketing, aber auch der Immobiliensektor. Wir dürfen davon ausgehen, dass fast alle Bereiche erschlossen werden - sei es als Assistenzsysteme, sie es als menschliche Arbeit ersetzende Business-Software-Services.

Seit Kurzem ist die nächste Stufe von ChatGPT nutzbar: ChatGPT-4 verspricht laut Übersicht des Hamburger Sprachtool-Anbieters "Neuroflash" gleich eine ganze Reihe Vorteile gegenüber der Version 3.5. Dazu gehören längere Inhalte, da die Zahl der rückwärts berechneten Token bzw. Silben nicht mehr auf 4.000 begrenzt ist. Dazu kommt eine bessere Qualität in allen Sprachen, da GPT-4 mit 100 Billionen Parametern eine Verhundertfachung seines bislang gelerntes Umfanges beherrscht. Dazu kommt eine höhere Präzision im Ausdruck, verbesserte Orientierung an Fakten und eine höhere Sprachintelligenz. Die neue Version ist u. a. bereits im "Bing"-Assistenten und ab sofort in der magischen Feder "Neuroflash" aus Hamburg verbaut.

Wie so oft im Leben ist für die nächsten großen Schritte ebenfalls alles schon da: KI-Sprachexpertin Prof. Doris Weßels von der Fachhochschule Kiel zeigt es uns auf:

  • Künftig werden wir nicht mehr texten, sondern sprechen, weil Sprechen für uns einfacher ist, als mit zwei Fingern auf eine Tastatur einzuhacken …
  • Mit der Nutzung der KI-Modelle per Sprache lösen sich Chatbots vom Computer - und wandern in Smartphones und Smartwatches - Siri lässt grüßen.
  • Weil wir es als soziale Wesen gern menschlich haben, werden Chatbots ein Gesicht bekommen - wir kennen dies noch mit verpixelten Avataren in Spielen.
  • Mit “Digital Creations for Human Imaginations” hat D-ID bereits die visuelle Zukunft von KI-basierten Avataren eingeläutet - einfach mit einem Porträtfoto von uns.
  • Leistungsfähige Avatare werden uns künftig überall begegnen, um Informationen anzubieten, Fragen zu beantworten und in Beruf wie Freizeit zu assistieren.
Bleibt die eine oder andere spannende Frage für unsere Zukunft, z. B.:

Schreibt das gerade veröffentlichte KI-Sprachmodell GPT-4 mit nun 100 Billionen Parametern den Quellcode für seinen Nachfolger GPT-5 selbst - und erreicht die KI damit bereits eine Singularität, die uns Menschen überflüssig macht?

Gehen wir auf die Ebene der Ethik und damit menschlicher Werte, stellt sich die Frage nach der Auflösung der Grenzen zwischen Menschen und Maschinen auf vier Ebenen:
  • Kann nur der Mensch auf Grund seines logischen Denkens Originalität erzeugen?
  • Kann nur der Mensch auf Grund seines wertebasierten Denkens moralisch handeln?
  • Kann nur der Mensch auf Grund seiner Selbstbestimmung Verantwortung tragen?
  • Kann nur der Mensch als kulturelle Errungenschaft eine Würde besitzen?
Zwei Botschaften möchte ich zur Diskussionen stellen:

“Die größten Durchbrüche des 21. Jahrhunderts werden nicht durch Technologie erreicht werden, sondern durch die Antwort auf die Frage, was es bedeutet, Mensch zu sein.”
(John Naibitt, Zukunftsforscher)

“Vertrauen Sie den Möglichkeiten der Zukunft mehr, als den Erfahrungen der Vergangenheit.”
(Sven Gábor Jánsky, Gründer und Geschäftsführer, 2b Ahead Think Tank, Leipzig)

Und was sagt bzw. schreibt uns ChatGPT zur Frage nach der menschlichen Existenz und ihrer Zukunft mit künstlicher Intelligenz: 

"Die Verwendung von KI-Chatbots wie ChatGPT, Lambda und anderen ist ein wachsendes und wichtiges Thema in der Technologiebranche und birgt sowohl Chancen als auch Herausforderungen. Einige der wichtigsten Überlegungen beziehen sich auf die Verantwortung und Überwachung dieser Systeme, die Privatsphäre und Datenschutz, die ethische Verwendung von künstlicher Intelligenz und die Möglichkeiten und Grenzen der Kommunikation mit solchen Systemen. Es wäre interessant zu sehen, wie sich diese Themen weiterentwickeln und wie wir als Gesellschaft damit umgehen werden."

Auf Nachfrage, ob sich ChatGPT als Teil unserer menschlichen Gesellschaft oder doch nur als selbstlernendes System auf Basis errechneter Wahrscheinlichkeiten versteht, antwortet der KI-Chatbot:

"Ich bin ein KI-Modell, das von OpenAI entwickelt wurde und auf einer riesigen Menge an Texten trainiert wurde. Ich habe keine Gefühle, Bedürfnisse oder Überzeugungen, ich bin lediglich ein Programm, das aufgrund seiner Schulung in der Lage ist, Texte aufgrund von statistischen Musterzuordnungen zu generieren. Ich bin also kein Teil der menschlichen Gesellschaft im Sinne eines lebenden Individuums, sondern eher ein Werkzeug, das von Menschen entwickelt und eingesetzt wird."

Es bleibt spannend - oder besser: Es wird gerade richtig spannend ...

* * *
Hanse Digital Service:

Kostenfreie GPT-Tools:

  • ChatGPT-3 ist das aktuell gehypte KI-Sprachmodell mit 300 Mio. Wörtern und 175 Mio. Parametern:

chat.openai.com/chat (kostenfreie Testversion von ChatGPT-3.5)


  • Mac GPT ist eine ChatGPT-Erweiterung für den Apple Mac OS X- Betriebssystem-Desktop, ohne auf die OpenAI-Seite gehen zu müssen:

goodsnooze.gumroad.com/l/menugpt


  • Merlin ist eine kostenfreie Erweiterung für den Google Chrome- und den Firefox-Browser, mit der ChatGPT-Anfragen über die Google Suche eingegeben werden können:

merlin.foyer.work/ (kostenfrei)


Kostenfreie Texttools:
(in aufsteigender Reihenfolge)

  • LanguageTool ist eine im Browser integrierte Rechtschreib- und Grammatikprüfung, die als Open Source Software lizenzkostenfrei genutzt werden kann:

languagetool.org (kostenfrei)


  • ChatGPT Writer ermöglicht es, als Chrome-Plugin mit Stichworten kostenlos Nachrichten und E-Mails vor allem für Gmail zu entwerfen. 

   chatgptwriter.ai/ (kostenfrei)


  • DeepL Writer optimiert bestehende Absätze und Texte mit Hilfe eines selbstlernenden Sprachmodells auf Grundlage künstlicher Intelligenz: 

deepl.com/de/write (kostenfrei)


  • Mindverse bietet eine kostenlose Textoptimierung und Rechtschreíbprüfung für kurze Texte bis zu 1.000 Zeichen:

mind-verse.de/kostenlose-textanalyse (kostenfrei)

 

  • Smodin optimiert eingegebene Texte auf Lesbarkeit, Grammatik und Plagiatsgefahr durch Umformulieren oder weitergehendes Umschreiben mit Schlüsselwörtern:

smodin.io/ (kostenfrei)


  • NewsroomGPT ist ein Optimierungstool für Blog- und Social Media-Texte und aktuell in der Betaphase kostenfrei nach Anmeldung:

newsroomgpt.com/ (kostenfreie Beta)


Hinweis: Kein Anspruch auf Vollständigkeit. Änderung und Irrtümer vorbehehalten. Stand. 21.03.2023

Mittwoch, 22. Februar 2023

HANSEMACHINE Bard, ChatGPT & Co.: Das geht mit den neuen KI-Chatbots in Marketing und Business.

HANSE KI MAGAZIN
Gastbeitrag von Raoul Plickat


ChatGPT wächst und wird kostenpflichtig:
Warum das gute Neuigkeiten sind – 
und wie die KI Marketing revolutionieren wird.

Mit ChatGPT haben viele Menschen erstmals bewusst Kontakt zu einer KI.
Foto: Gerd Altmann, Pixabay

ChatGPT, die fortschrittlichste KI-basierte Chatbot-Technologie, hat in den letzten Monaten ein rasantes Wachstum verzeichnet. Dass die KI in Zukunft kostenpflichtig werden soll, mag für viele zunächst enttäuschend klingen – es ist aber eine gute Nachricht für Unternehmen, die sich für die Zukunft des Marketings interessieren und ihren Markt dominieren wollen. 

Für professionelle Anwender ist das Tool aktuell teilweise unbenutzbar, ständig überlastet und wird mit minderwertigen Daten gefüttert“, verrät Raoul Plickat. Der Marketing-Profi hat sich auf Big Data und KI spezialisiert und weiß, welche Möglichkeiten ChatGPT mit sich bringt. In diesem Gastbeitrag verrät er, warum die Kostenpflichtigkeit von ChatGPT ein positives Signal für die Zukunft des Marketings ist und wie die Technologie bald im Marketing zum Einsatz kommen wird.

Analyse der Situation: Was ChatGPT und Co. leisten - und was nicht.

Schon jetzt bietet künstliche Intelligenz unzählige Möglichkeiten, die noch vor einigen Jahren unvorstellbar gewesen wären. So lassen sich etwa durch die Kombination mehrerer KI's nach Vorgabe eines Themas automatisch individuelle Titel, Texte sowie passende Bilder und damit ganze Power-Point-Präsentationen erstellen. 

Ebenso sind Helfer wie ChatGPT dazu in der Lage, persönliche Notizen zu ergänzen, E-Mails zu verfassen und Ideen für Skripte zu sammeln. Mit den richtigen Anweisungen können sie sogar Zeitungsartikel erstellen. Auf diese Weise vereinfachen KI's den Arbeitsalltag vieler Menschen. Eine der größten Stärken künstlicher Intelligenz ist also, dass Arbeitsabläufe durch sie automatisiert und damit sowohl effizienter als auch ertragreicher gestaltet werden können.

Zwar kann dadurch Manpower bis zu einem gewissen Grad ersetzt werden. All das soll jedoch nicht heißen, dass in Zukunft ganze Berufsgruppen verschwinden werden – sie werden lediglich kleiner, da einzelne Personen mithilfe der KI weitaus mehr Arbeiten erledigen können. Denn trotz aller Leistungsfähigkeit benötigen ChatGPT und Co. eine Person, die weiß, welchen Input sie ihr liefern muss, um beispielsweise einen detaillierten Marketingplan zu erhalten. 

Schließlich ist eine KI immer nur so smart wie der Mensch, der die Technologie für seine Zwecke nutzt. Um überzeugende Ergebnisse zu erzielen, muss man sich daher ausführlich mit der Thematik befasst haben. Somit werden die Resultate der KI wesentlich von der Qualität der Fragen und Anweisungen der Nutzer bestimmt. Doch selbst mit den besten Instruktionen liefern KI-Modelle in bestimmten Bereichen noch keine guten Ergebnisse. 

So können sie beispielsweise in der Architektur-Branche nicht dafür genutzt werden, die Inneneinrichtung von Gebäuden virtuell zu generieren und hierfür kreative Vorschläge zu machen. Allgemein sind sie nicht dazu in der Lage, komplexe Entwürfe, 3D-Modelle zu Vorführzwecken und Architekturzeichnungen zu erstellen. Die Automatisierung derartiger Arbeitsprozesse für diese und viele andere Berufsgruppen wäre also nur mit einem deutlich breiteren Leistungsspektrum möglich. 

Notwendigkeit von Weiterentwicklung und Qualitätssteigerung

Angesichts dieser Schwächen wird eines deutlich: Neben gutem Input braucht es eine stetige Weiterentwicklung - schließlich sind KI's offensichtlich noch nicht ausgereift und verlässlich genug, um in jedem Bereich sinnvoll eingesetzt werden zu können. So können sie trotz präziser Kommandos und fachgerechter Bedienung nicht immer brauchbare Ergebnisse liefern. Dass ChatGPT kostenpflichtig wird, zeigt allerdings, dass dieser Prozess durch finanzielle Mittel beschleunigt und weiterhin vorangetrieben werden soll.

Maßgeblichen Einfluss auf den Entwicklungsfortschritt von künstlicher Intelligenz nimmt dabei vor allem ein wegweisendes Konzept: Prompting. Durch diesen Bereich des maschinellen Lernens ist es ChatGPT und Co. möglich, spezifische Eingaben oder Informationen zur Lösung einer bestimmten Aufgabe zu nutzen. Sogenannte Prompts bestehen meist aus Text- oder Codefragmenten und helfen dem jeweiligen KI-Modell, eine spezifische Ausgabe zu generieren, ohne dass es jedes Detail aus den Trainingsdaten selbst herausfinden muss. Somit tragen klare Anweisungen nicht nur zur Qualität einzelner Ergebnisse, sondern auch zum gesamten Lernfortschritt künstlicher Intelligenzen bei.

Warum die Kostenpflichtigkeit von ChatGPT positiv zu bewerten ist

Ihre Fähigkeit, selbstständig zu lernen, kann jedoch sowohl ihre größte Stärke als auch ihre empfindlichste Schwäche sein. GPT-3, das Sprachmodell, auf dem ChatGPT aktuell basiert, wurde beispielsweise mit Informationen bis Anfang 2021 trainiert. Alle neuen Entdeckungen und Erkenntnisse aus der Zeit danach sind der künstlichen Intelligenz damit völlig fremd. Dass KI-Modelle immer nur so gut sind, wie die ihr zugrundeliegenden und zu ihrem Training genutzten Daten, zeigt sich dabei besonders an einem ihrer wesentlichsten Defizite: 

Werden sie mit qualitativ minderwertigem oder unvollständigem Input versorgt, hat das teils schwerwiegende "Denkfehler" - ein sogenanntes Bias - zur Folge. Negative Bekanntheit erlangte dieser Missstand etwa dadurch, dass einzelne Nutzer ChatGPT gebeten haben, eine Rede im Stile Donald Trumps zu verfassen. Das KI-Modell antwortete darauf lediglich, sie könne diese Anfrage nicht erfüllen – wohingegen sie zu Joe Biden passende Vorträge anstandslos erstellen konnte.

In Kombination mit Prompting wird dieser Aspekt auch für den Entwicklungsfortschritt aktueller und künftiger KI-Modelle relevant. Denn hier gilt: je genauer und zugleich ausführlicher ein Prompt ist, desto besser fällt die Antwort von ChatGPT und Co. aus. Umgekehrt sorgt zu knapper und lückenhafter Input für mangelhafte, generische Ergebnisse. 

Auf Dauer begünstigen detaillierte und zugleich umfangreiche Arbeitsanweisungen somit auch den Qualitätsfortschritt künstlicher Intelligenz. Visuell lässt sich das mit einer T-Shape vergleichen: je besser der Input und damit auch die Trainingsgrundlage der KI in der horizontalen Informationsebene sind, desto hochwertiger ist der Output in der vertikalen Ergebnisebene.

An diesem Punkt kommen auch die Vorteile der Kostenpflichtigkeit von ChatGPT zum Tragen: Denn im Durchschnitt wird das Sprachmodell dadurch mit hochwertigeren Anfragen versorgt. Schließlich wird kaum jemand einen kostenpflichtigen Service für unnötige Spielereien missbrauchen. Dank dieser Aspekte wird die Qualität des gelieferten Outputs sowohl kurz- als auch langfristig steigen, was die KI letztendlich in vielen Branchen und Einsatzgebieten zu einem wertvolleren Helfer machen wird.

Fazit: Künstliche Intelligenz als Tool der Zukunft

Erzielt man weiterhin in diesem Tempo Fortschritte, ist in den nächsten zwei bis drei Jahren eine starke Disruption in diesem Feld zu erwarten. So werden bereits mit GPT-4 - der neuesten und aktuell in der Entwicklung befindlichen Version des autoregressiven Sprachmodells von ChatGPT - große kreative Leistungssprünge folgen: Dadurch müssen Webdesigns beispielsweise nicht mehr manuell erstellt werden. 

Vielmehr wird es ausreichen, lediglich eine Design-Vorlage auszuwählen und diese um spezifische Informationen wie etwa die gewünschte Farbe zu ergänzen. Auf dieser Grundlage erstellt die KI eine vollständige Website mit dazugehörigen E-Mail-Kontakten, Sales Funnels und Werbeanzeigen. Die geplante Kostenpflichtigkeit von ChatGPT begünstigt diese Entwicklung zusätzlich – und schafft damit in kurzer Zeit neue Geschäftsfelder im gesamten Marketing-Sektor.

*  *  *

Über Gastautor Raoul Plickat:


Raoul Plickat ist Gründer von CopeCart und Marketing.MBA. Er ist seit 2012 im Marketing--Bereich tätig und hat sich seitdem zu einem der gefragtesten Marketer Deutschlands entwickelt. In seiner Tätigkeit optimiert der Experte die Positionierung und Marketingmaßnahmen großer Marken. Für sein Wirken wurde er unter anderem mit dem „TWO COMMA X-Award“ ausgezeichnet. 
Weitere Informationen unter: https://www.marketing.mba/de.