Posts mit dem Label LaMDA werden angezeigt. Alle Posts anzeigen
Posts mit dem Label LaMDA werden angezeigt. Alle Posts anzeigen

Dienstag, 18. April 2023

HANSEMACHINE: GPT 3.5 vs. 4.0 - Ein Experten-Chat, was besser ist.

HANSE KI MAGAZIN

"GPT-4 hat gegenüber GPT-3.5 einige Verbesserungen implementiert, um noch größeren Mehrwert für Nutzer zu bieten."
- Jonathan Mall, Gründer und CIO von Neuroflash aus Hamburg -

Ab sofort können wir mit KI-Tools reden, genauer gesagt, chatten.
Grafik: Neuroflash AI Image Generator

Das KI-Sprachmodell GPT von OpenAI ist seit Veröffentlichung Ende November '23 in aller Munde. Mit GPT-3.5 als kostenfrei nutzbare Betaversion und GPT-4 sind nun zwei Versionen des Textgenerators online und für Texte und mehr nutzbar. Welche Version ist für welche Aufgabe besser geeignet? Sollte ich das kostenpflichtige ChatGPT 4 nutzen, oder reicht 3.5 aus?

Das junge Hamburger Unternehmen Neuroflash ist einer der Vorreiter für KI-basierte Texttools. Mehr als 100 verschiedene Textarten können mit den Online-Vorlagen der "magischen Feder" erstellt werden. Gründer Jonathan Mall ist einer der klugen Köpfe hinter der Content Generator Suite. Wir haben Ihn zur aktuellen Entwicklung interviewt:

GPT-3.5 und GPT-4 – Was ist heisst das?

Du hast vielleicht schon von GPT-3 gehört, aber kennst du auch GPT 3.5? Es handelt sich hierbei um eine verbesserte Version des bekannten Sprachmodells von OpenAI. GPT-3.5 bietet eine höhere Leistungsfähigkeit und Genauigkeit als sein Vorgänger und kann somit noch komplexere Aufgaben bewältigen. 

Es handelt sich bei GPT-3.5 um ein künstliches sowie neuronales Netzwerk, das darauf trainiert wurde, natürliche Sprache zu verstehen und auch zu generieren. Das Modell kann Texte schreiben, Fragen beantworten und sogar Übersetzungen anfertigen. Damit ist GPT-3.5 einen Schritt näher, die menschliche Sprache perfekt zu beherrschen und wiederzugeben.

Jetzt weißt du, worum es sich bei GPT-3 handelt. Doch wie sieht es mit GPT-4 aus? GPT-4 ist die neueste Version des OpenAI Sprachmodells nach GPT-3.5 und verspricht, noch leistungsstärker zu sein als sein Vorgänger. GPT-4 soll beispielsweise in der Lage sein, noch komplexere Texte zu generieren und sogar menschenähnliche Konversationen zu führen.

Außerdem kann GPT-4 zusätzlich zum Text auch Bilder verstehen. Obwohl GPT-4 erst veröffentlicht wurde, sind viele User bereits gespannt auf dessen Fähigkeiten und darauf, wie das Sprachmodell die KI-Textgenerierung weiter revolutionieren wird. Es bleibt abzuwarten, ob GPT-4 wirklich so beeindruckend sein wird, wie die Idee es verspricht, aber sicher ist, dass die Zukunft der KI-Textgenerierung aufregend bleibt.

Vergleichen wir die beiden Modelle: Wo sind die Unterschiede?

Wenn wir die beiden Modelle GPT-3.5 und GPT-4 miteinander vergleichen, gibt es einige signifikante Unterschiede. Zum Beispiel ist GPT-4 in der Lage, komplexere Aufgaben zu bewältigen, als GPT-3.5. Der größte Unterschied zwischen GPT-3.5 und GPT-4 besteht damit in der Leistungsfähigkeit der Modelle. GPT-3.5 kann Text mit geringerer Genauigkeit erzeugen, während GPT-4 Texte in höherer Qualität produzieren kann.

GPT-4 kann dazu auch eine viel größere Menge an Daten verarbeiten und somit bessere Ergebnisse liefern. Im Vergleich zu GPT-3.5, das bis zu 3.000 Wörter als Eingabeaufforderung verarbeiten kann, kann GPT-4 bis zu 25.000 Wörter Eingabeaufforderung inklusive visuellem Input verarbeiten. 

Schließlich ist GPT-4 ein noch intelligenteres System. GPT-3.5 gehörte nach der BAR-Prüfung zu den untersten 10 % der getesteten Systeme, doch GPT-4 übertrifft 90 % aller Kandidaten. Dazu kommt, dass GPT-4 noch mehr Sprachen als GPT-3.5 versteht, wie zum Beispiel auch Lettisch, Thai oder Swahili.

Welche Verbesserungen hat GPT-4 gegenüber GPT-3.5?

GPT-4 hat gegenüber GPT-3.5 einige Verbesserungen implementiert, um noch größeren Mehrwert für Nutzer zu bieten. Gemäß OpenAI, zeichnet sich das GPT-4 Sprachmodell der nächsten Generation durch bedeutende Fortschritte in vier zentralen Bereichen aus:
  • Innovationskraft: Hinsichtlich der Innovationsfähigkeit zeigt sich GPT-4 als äußerst leistungsfähig, vor allem wenn es darum geht, kreative Vorhaben zu realisieren. Hierzu zählen etwa musikalische Kompositionen, Filmdrehbücher, technische Texte und sogar das Adaptieren des individuellen Schreibstils eines Nutzers.
  • Visuelle Informationen: Als ein multimodales Modell kann GPT-4 auch Bildmaterial als Basis für Interaktionen erkennen und verarbeiten. Dies ermöglicht es Nutzern, in Zukunft nicht nur textbezogene, sondern auch visuelle Eingaben zu tätigen.
  • Größerer Kontext: Das Verständnis von langem Kontext ist bei GPT-4 eine weitere bedeutsame Verbesserung. Das Sprachmodell hat die Fähigkeit, bis zu 25.000 Wörter von Nutzern zu verarbeiten. Es ist sogar möglich, GPT-4 einen Weblink zu schicken und es um Interaktion mit dem Text auf der Website zu bitten. OpenAI betont, dass dies nützlich für die Erstellung von umfangreichen Inhalten sowie für längere Gespräche sein kann.
  • Verlässlichkeit: GPT-4 zeichnet sich durch seine erhöhte Verlässlichkeit aus. Nach internen Untersuchungen von OpenAI zu urteilen, kann es 40 % fundiertere Antworten liefern. Dabei sinkt die Wahrscheinlichkeit, dass es auf falsche Inhalte eingeht, um beeindruckende 82 %.

Zusammenfassend lässt sich sagen, dass sich die Entwickler bei GPT-4 auf die Verbesserung der Sprachmodellierung konzentriert haben, um die Leistung von GPT-4 zu erhöhen. Eine der wichtigsten Verbesserungen ist die Fähigkeit, mehr Kontext zu verstehen und zu verwenden, um bessere Ergebnisse zu generieren. 

So kann GPT-4 vor allem komplexere Zusammenhänge besser verarbeiten. Darüber hinaus wurde die Fähigkeit zur Generierung von Texten verbessert, was bedeutet, dass GPT-4 in der Lage ist, noch menschenähnlichere Sätze und Absätze zu erstellen. All diese Verbesserungen machen GPT-4 zu einem beeindruckenden Sprachmodell, das uns sicherlich in Zukunft noch mehr beeindrucken wird.

Ist GPT-4 also in jedem Fall die bessere Version?

Es ist wichtig, die Stärken und Schwächen beider Modelle im Vergleich zueinander zu betrachten. Zuerst sollte man berücksichtigen, dass ein GPT-3.5-Textgenerator grundlegende Aufgaben momentan (noch) schneller bewältigen kann als GPT-4 – aufgrund seiner reduzierten Parameteranzahl und der kleineren Menge an zu verarbeitenden Daten. Daher ist es für kleinere und elementare Aufgaben häufig ratsam, GPT-3.5 anstelle von GPT-4 zu verwenden. 

Dennoch erfordern komplexere Aufgaben einen umfangreicheren Parametersatz und eine größere Datenmenge. Hier zeigt sich der Nutzen von GPT-4: Es ermöglicht eine höhere Präzision bei anspruchsvollen Aufgaben und liefert somit bessere Ergebnisse. Alles in allem lässt sich aber grundsätzlich sagen, dass noch Uneinigkeit darüber herrscht, welches Modell besser ist. 

Bis jetzt haben beide Modelle weiterhin einen großen Nutzen für Verbraucher, denn letztendlich ist persönliche Präferenz bei der Auswahl des Sprachmodells für die spezifische Anwendung entscheidend.

Und Dein persönliches Fazit als KI-Experte?

Zunächst einmal ist klar, dass beide Modelle beeindruckende Fortschritte in der Textgenerierung gemacht haben. GPT-4 scheint jedoch in einigen Bereichen noch einen Schritt weiter zu sein als sein Vorgänger. Insbesondere die Fähigkeit, komplexe Zusammenhänge zu verstehen und zu verarbeiten, ist ein großer Fortschritt. 

Letztendlich hängt die Wahl des richtigen Modells von den individuellen Bedürfnissen der Nutzer ab. Wenn du eine Textgenerierung benötigst, die komplexere Zusammenhänge verarbeiten kann, ist GPT-4 definitiv die bessere Wahl. Wenn du jedoch eine Textgenerierung benötigst, die natürliche Sprache schnell und effektiv generieren kann, ist GPT-3.5 immer noch eine hervorragende Alternative.

Vielen Dank für die fundierten Einblicke!

Das Interview führte Thomas Keup.

*  *  *

Über Jonathan Mall

Dr. Jonathan T. Mall ist Chief Innovation Officer von Neuroflash und hat nach seiner Promotion in Neuropsychologie vor allem im Bereich Big Data und visueller sowie semantischer Marketing-Optimierung gearbeitet. 

Neuromarketing und die Etablierung wissenschaftlicher Methoden in quantitativer Marktforschung stehen in seiner Arbeit klar im Fokus.


Über Neuroflash


Die Neuroflash GmbH ist ein Softwareunternehmen mit Sitz in Hamburg und versteht sich als deutsches Pendant zur ChatGPT. Die Gesellschaft wurde 2021 gegründet und hat heute zehn Mitarbeiterinnen und Mitarbeiter. 

Neuroflash generiert als SaaS die besten deutschen Texte in der DACH-Region. Die "magische Feder" von neuroflash hilft dabei mehrfach: 

Als bisher günstigste Lösung mit kostenfreier Einstiegsvariante können auch Selbstständige und KMUs in Sekundenschnelle Textideen erhalten und viel effizienter arbeiten. Von der Ideenfindung bis hin zum finalen Text, die hohe Variabilität beim Schreiben und das Optimieren der Wirksamkeit von Botschaften, wird in einer Software gelöst.

*  *  *
 Hanse Digital Background: 

HANSEFUTURE:
ChatGPT & Co - Das Outsourcing geistiger Arbeit hat begonnen!

HANSEMACHINE Bard, ChatGPT & Co.:
Das geht mit den neuen KI-Chatbots in Marketing und Business.

Dienstag, 21. März 2023

HANSEFUTURE: ChatGPT & Co - Das Outsourcing geistiger Arbeit hat begonnen!

HANSE DIGITAL FUTURE
- 1.100 Leser. Und Sie. -

Erstmals werden uns mit ChatGPT die künftigen Möglichkeiten künstlicher Intelligenz bewusst.
(Illustration: Kushinuke McFly, Pixabay)

Die US-Jobbörse "Resumebuilder" hat 1.000 Geschäftsführer zum Umgang mit ChatGPT befragt. 49 Prozent setzen den Chatbot bereits in ihrem Unternehmen ein, 30 % planen die Verwendung zumindest.

99 % der Unternehmen, in denen ChatGPT schon genutzt wird, sprechen von maßgeblichen Ersparnissen durch das Tool. 48 % wollen dabei mehr als 50.000,- $ eingespart haben, elf Prozent sogar mehr als 100.000,- $. Der Blick aufs Sprachmodell ist positiv geprägt, 55 % bezeichnen die Performance von ChatGPT als „exzellent“.


66 % der Befragten, die das Sprachmodell nutzen, verwenden es zum Schreiben von Code, 58 % zum Verfassen von Text-Inhalten. 57 % nutzen die KI-Unterstützung im Kundensupport und 52 % zum Verfassen von Besprechungsprotokollen.


32 % der Befragten gehen davon aus, dass ChatGPT in den nächsten fünf Jahren „auf jeden Fall“ zu Entlassungen führen wird, 31 % halten das für „wahrscheinlich“.

(Quelle: t3n.de News, 27.02.2023)


Was machen 10.000 Nividia Tesla GPUs V100 und bis zu 20 Mio. $ Investition für das Training einer KI möglich? Ein bis Juni 2021 mit 45 TB Daten und 176 Mrd. Wortsilben (Token) eigentlich dummes Plappermaul, das Menschen auf der ganzen Welt auch durch sein Selbstbewusstsein fasziniert. Mit der exponentiellen Nutzung von ChatGPT seit 30. November 2022 scheint eine neue Zeitrechnung angebrochen zu sein: die Zeit vor ChatGPT als erstem universellen Sprachdialogsystem - und die Zeit danach. Auch wenn GPT-3 seit Juni 2020 existiert.

Sprechen die einen von einer echten Revolution, die das Leben aller Menschen verändern wird, befürchten die anderen bereits eine Konkurrenz von Mensch und Maschine, verbunden mit der alles entscheidenden Frage nach unserer Existenz. Wie in jedem Entwicklungs- oder Produkt-Zyklus probieren die "Innovatoren" in der aktuellen Phase als “First Mover” aus, was möglich ist - ob Software coden, Prüfungsarbeiten schreiben oder Roboter antreiben. Chefredakteur und GPT-Nutzer Thomas Keup ordnet die aktuelle Entwicklung aus der Vogelperspektive ein:


Sam Altman, CEO OpenAI, ABC News, 16.03.2023

"Generative Systeme wie ChatGPT und BARD stehen für eine zweite Welle des Outsourcings, die nicht mehr primär die menschliche Muskelkraft betrifft, sondern auch die Geisteskraft. Damit wir dadurch nicht unselbstständig werden, soll KI dem von Kant geprägten Leitspruch der Aufklärung folgen und uns ermutigen, uns unseres eigenen Verstandes bedienen zu wollen",  sagt Lukas Mohr, Head of CX-Platform und Digital Services bei der Bonner "Scopevisio AG" - im Vorfeld eines von ihm geleiteten Think Tanks anlässlich der Gründung des "Virtuellen Kompetenzzentrums Schreiben, Lehren und Lernen mit KI", initiiert von Prof. Doris Weßels an der FH Kiel, einer der führenden Spezialistinnen zum Thema KI und Schreiben.

Womit wir mitten in der Diskussion wären: 
  • Welche Textaufgaben übernimmt künftig ein KI-Sprachmodell? 
  • Wer wird z. B. seinen Texter-Job in Deutschland verlieren? 
  • Und welche Text-Berufe haben eine Überlebenschance? 

Die Frage ist alles andere, als trivial: Im Jahr 2020 gab es in Deutschland rd. 34.000 Beschäftigte in der Werbebranche einschl. Online-Marketing - und damit viele Copywriter. Hinzu kommen rd. 30.000 PR-Experten in Pressestellen, PR-Agenturen und Freelancer - und damit hauptberufliche Texter. Ebenfalls betroffen: rd. 42.000 fest angestellte und freiberufliche Journalisten - und damit professionelle Texter. Unter dem Strich sprechen wir allein in Deutschland von mehr als 100.000 Menschen, die mit Worten und Texten ihr Geld verdienen - pardon - verdient haben ...

Sam Altman, CEO OpenAI, ABC News, 16.03.2023

Mit mehr als 30 Jahren journalistischer Erfahrung und über 25 Jahren Background als PR-Spezialist behaupte ich: Als Texter haben wir mit dem auf einer Google-Softwarearchitektur basierenden, Text generierenden KI-Sprachmodell neue Chancen, unsere Arbeit effektiver und effizienter im Auftrag unserer Redaktionen, Organisationen und Kunden zu erledigen. Grund: Als Textarbeiter sind wir es gewohnt, strukturiert, selektiv und damit punktgenau Texte zu planen und zu entwerfen, zu schreiben und zu optimieren. Daher bieten uns KI-Sprachmodelle eine Chance, unsere Arbeit produktiv zu begleiten, zu unterstützen und weiter zu professionalisieren.

Womit wir beim "Pferdefuss" der Angelegenheit wären, genauer gesagt bei einer ganzen Herde galoppierender Pferdefüsse:

Wenn jeder mit Hilfe eines frei verfügbaren Textchats jede Form von Text erstellen lassen kann, müssen wir auf inflationäre Weise mit einer Flut von “Na ja”-Texten rechnen, wie der Hamburger "Neuroflash"-Gründer Jonathan Mall auf den Punkt bringt. Da das statistische Sprachmodell darauf ausgerichtet ist, allgemein verständlich zu schreiben bzw. zu antworten, bekommen wir vor allem Durchschnittstexte mit Durchschnittsmeinungen in Durchschnittssprache präsentiert. Erste "Spezialisten" versuchen bereits auf "Amazon", "Kindle"-Bücher aus KI-Chats zu verhökern.

Dies ist eine der massiven Folgen von ChatGPT. Grund: Die Chat-KI ist nichts anderes als eine Maschine, die die Wahrscheinlichkeit für korrekt zusammengesetzte Worte errechnet. Das kann gut gehen, kann aber auch zu "halluzinierenden" Ergebnissen führen, sprich: die Maschine würfelt sich was zusammen und gibt es uns als berechnet glaubwürdig und total selbstbewusst aus. Das Problem: Die Antwort ist womöglich erstunken und erlogen - aber hätte mathematisch stimmen können. Wenn der KI-Chatbot dann keine Quellen mitliefert, ist die KI für Recherchezwecke ungeeignet und sogar gefährlich.

Keine Chance für Junior-Somethings in Social Media Agenturen ...

Da sich das Sprachmodell mit seinen eigenen Inhalten trainiert, kommt es zu einem weiteren heiklen Thema: Bestehende Texte werden immer wieder reproduziert - und damit auch die Fehler in den Texten. Durch die zirkuläre Reproduktion verstärken sich so auch inhaltliche Schwächen. Bekanntestes Beispiel: Tay - ein als weiblich definierter KI-Chatbot von "Microsoft", den der Softwareriese im März 2016 auf Twitter loslies. Ergebnis: aus dem vermeintlichen "Hipster-Mädchen" wurde über Nacht ein "Hitler-Bot", denn die KI lernte aus dem, was auf Twitter rumgeisterte. Ende vom Lied: Es wurde der Stecker gezogen.

Erik Brynjolfsson, Standford-Institute for Human Centred-AI (HAI) + Stanford Digital Economy Lab 

Noch kann ein KI-Sprachmodell Sprachstile von Menschen nicht unterscheiden, z. B. Joe Biden von Donald Trump. Damit ist der aktuelle KI-Chatbot noch nicht in der Lage, regionale oder individuelle Unterschiede in unserer Sprache zu berücksichtigen. Das aktuelle Sprachmodell versteht noch keine Besonderheiten der menschlichen Kommunikation, z. B. Ironie oder Sarkasmus. Das gilt auch für menschliche Interaktionen, wie Bedürfnisse, Vorlieben oder Anforderungen. Die genannten Schwächen sind gute Gründe für professionelle Texter, einem Textchat erst einmal mit Vorsicht zu begegnen. 

Stellt sich die Frage, wo und wie ein allgemein "sabbelnder", manchmal auch dreist lügender und sich selbst in den Spiegel guckender Chatbot sinnvoll sein kann und damit - wie eingangs in den Raum gestellt - "geistige Leistungen" von Menschen ablöst, die digital schneller, einfacher und günstiger zu erledigen sind? Wie bei jedem Outsorcing-Prozess erwischt es zunächst die "ungelernten" Kräfte, gefolgt von den "angelernten" Arbeitnehmern, den "Junior"-Mitarbeitern und den "austauschbaren" Arbeitsplätzen. An dieser Stelle empfehle ich allen "Junior"-Somthings in Social Media Agenturen, sich schon mal ein anderes Berufsfeld zu suchen. Denn: Jubel-Posts für Social Media kann ChatGPT bereits perfekt!

Wenn ChatGPT für professionelle, reflektierende Texter zumindest im Moment noch keine größere Konkurrenz ist, wofür eignet sich denn ein Sprachmodell bereits in der Praxis - und was hat dies für Folgen?

Ein offener Zugang zu einem KI-Sprachmodell wie ChatGPT bedeutet z. B. Chancengleichheit in der Bildung, da keine Studiengebühren oder eine Privathochschule für ein inhaltlich hochwertiges, selbstbestimmtes Lernen notwendig sind. Voraussetzung: Schulen und Hochschulen kümmern sich um die Folgen von KI-Sprachmodellen und versuchen nicht, sie mit allen Mitteln zu verbieten, um ihre angestammten Frontalvorlesungen und Schönschreibübungen vor der Flutwelle zu retten. Ich würde mir als Student jetzt eine Hochschule suchen, die die Herausforderung annimmt, und das mündliche Er-/Lernen sowie ein persönliches Reflektieren in den Mittelpunkt stellt.

Durch natürlich eingegebene Fragen oder Hinweise bekommen wir von dem regressiven KI-Sprachmodell einfach verständliche Aussagen und Erklärungen in für uns statistisch zusammengestellten Texten auch zu komplexen Sachverhalten, was unsere Akzeptanz in der Nutzung erhöht. Durch allgemein verständliche Texte des Sprachmodells bekommen wir die Chance, auch unbekannte Themen leicht kennenzulernen, uns anzueignen und für unsere Zwecke zu adaptieren. Hier beginnt die Assistenz-Funktion, die "Microsoft" in "Bing" und "Google" in seiner Suche einbauen werden. Damit verändert sich die Suche zu einem Frage-Antwort-Chat, der im positiven Fall eine neue Qualität des Kennen-/Lernens ermöglicht.

Mit gezielten Eingaben in das KI-System lässt sich bereits heute eine Menge Zeit sparen, denn mit natürlich gestellten, eingeordneten Fragen und Anweisungen bekommen wir eine qualifizierte, ausformulierte Antwort angeboten. Wie im Journalismus können wir mit Fragen, Nachfragen, aber auch Hinweisen und Ansagen im Dialog die Qualität der individualisiert ausgegebenen Texte steuern, verbessern und nach unseren Vorstellungen optimieren. Ein Sprachmodell kann uns bei der Kreativität helfen, da wir diese jederzeit und in jedem Zusammenhang über das “Large Language Model” abrufen können.

Ein Oursourcing von geistiger Arbeit - In Wort, Bild und Video.

Für die Prüfung z. B. von Rechtschreibung und Grammatik ist das aktuell für jedermann veröffentlichte Sprachmodell in der Version 3.5 bereits gut nutzbar. Zudem können wir z. B. auf GPT aufgesetzte Erweiterungen für die Textarbeit einsetzen, wie z. B. das deutsche "LanguageTool". Wir selbst entscheiden, wie weit uns der KI-Chatbot begleiten kann bzw. darf. Im Interesse eines jeden Professionals, “mehr mit weniger” erreichen zu können, wird z. B. ChatGPT einen Platz als Suchassistent und Entwurfslieferant einnehmen. Als deutsche Muttersprachler haben wir mit ChatGPT zudem erstmals einen Glücksgriff gemacht, da der Betreiber "OpenAI" neben der Ausgangssprache Englisch auch weitgehende Sprachmodelle vor allem für deutsche und spanische Nutzer entwickeln lassen hat.

Neben der Integration in Suchmaschinen und Browser kommen KI-Sprachmodelle in Office-Anwendungen und Content-Management-Systeme als Textgeneratoren und Rechtschreibprüfung, ohne dass wir sie explizit als KI wahrnehmen. Gerade kündigte "Microsoft" einen auf ChatGPT basierenden Text-, Präsentations- und Tabellenassistenten namens "Copilot" für "365" an. Die Grundlage: ChatGPT-4. Professionelle Anwender werden auf KI-Sprachmodelle aufsetzende Online-Services nutzen, um in ihrer Arbeit einen gezielten Nutzen zu haben. Dies können z. B. Korrektur- oder Optimierungs-Tools sein - auch branchenspezifisch verfeinert.

Zudem werden KI-Chatbots im persönlichen wie professionellen Umgang zu einem Ratgeber bzw. einer Einstiegshilfe für neue, interessante Themen, die sich durch einen immer detaillierter werdenden Dialog ergeben und weiter verfeinern lassen. Damit gehören Schreibblockaden beim Texten schon bald der Vergangenheit an. Mit Hilfe von KI-basierten Assistenten lässt sich zudem bereits Quellcode für Software entwickeln, können Entwürfe von Homepages erstellt werden und es lassen sich Bilder und Grafiken generieren, sei es in ChatGPT-4 oder der "OpenAI"-Schwester Dall-E. Genau das ist es, was Lukas Mohr in seinem Eingangsstatment sagt: ein Outsourcing von geistiger Arbeit.

Und was heißt das alles für die armen, nun arbeitslos werdenden Social Media-Somethings, die in den kommenden Monaten und Jahren ihre "Ikea"-Schreibtische räumen müssen?

So, wie die Nutzung von Office-Anwendungen heute zu den Standard-Skills in der Arbeitswelt gehören, zählen für viele Berufe in Zukunft Erfahrungen bei der Nutzung von Chatbots inkl. semantischem Denken und Fähigkeit zum Prompten - sprich der qualifizierten Eingabe von Fragen bzw. Anweisungen - als Voraussetzungen. Um KI-Sprachmodelle bewusst einzusetzen, sollten Anwender ein Verständnis für die Nutzung von Daten, der Verknüpfung und Verarbeitung entwickeln. Dies findet auf der Meta-Ebene oberhalb der praktischen Anwendung von Sprachtools statt.

Als Schreibexperten wird sich unser Texten durch die Möglichkeiten des Ausprobierens stärker qualifizieren, im Bereich der Veröffentlichung stärker quantifizieren, da wir mehr Texte in gleicher Zeit erarbeiten können. Dies kann Segen und Fluch zugleich sein. Auf jeden Fall werden wir als professionelle Texter künftig immer weniger für Schönschreibübungen bezahlt, sondern für kreative Ideen und professionelle Wege. Auf Grund einer zu erwartenden Flut an KI-generierten Texten werden wir als Leser zugleich stärker selektieren, was wir wirklich durch-/lesen wollen - oder uns lediglich durch Zusammenfassungen bzw. beim “Überfliegen” zur Kenntnis geben.

Sind wir im aktuell verbreiteten “Natural Language Processing” (NLP) auf antrainierte Sprache in Text fokussiert, bekommen wir durch das in Zukunft in den Vordergrund rückende “Natural Language Understanding” logisch-verknüpfte Antworten. Nach der generativen KI mit generierten Worten und Texten ist vor der instruktiven KI, die Wissen berücksichtigt und damit Zusammenhänge erkennen und verarbeiten kann. Damit nähern sich KI-(Sprach)modelle den menschlichen Fähigkeiten immer weiter an. Das ist auch der Hintergrund des aktuellen "Rattenrennens" zwischen den beiden Online-Gigangten "Microsoft" und "Google".

Fast alle Bereiche werden erschlossen, z. B. durch Assistenzsysteme.

Ein entscheidender Schritt beim Verstehen menschlicher Anforderungen ist die Aufbereitung von Antworten oder Lösungen aus mehrstufigen Gedankenschritten, die vorgeformt zur Verfügung stehen, z. B. juristische Argumente aus früheren Verfahren. Zu den interessantesten Branchen für die Nutzung von KI-Sprachmodellen gehören z. B. Bildung, Forschung und Wissenschaft, Medien und Marketing, aber auch der Immobiliensektor. Wir dürfen davon ausgehen, dass fast alle Bereiche erschlossen werden - sei es als Assistenzsysteme, sie es als menschliche Arbeit ersetzende Business-Software-Services.

Seit Kurzem ist die nächste Stufe von ChatGPT nutzbar: ChatGPT-4 verspricht laut Übersicht des Hamburger Sprachtool-Anbieters "Neuroflash" gleich eine ganze Reihe Vorteile gegenüber der Version 3.5. Dazu gehören längere Inhalte, da die Zahl der rückwärts berechneten Token bzw. Silben nicht mehr auf 4.000 begrenzt ist. Dazu kommt eine bessere Qualität in allen Sprachen, da GPT-4 mit 100 Billionen Parametern eine Verhundertfachung seines bislang gelerntes Umfanges beherrscht. Dazu kommt eine höhere Präzision im Ausdruck, verbesserte Orientierung an Fakten und eine höhere Sprachintelligenz. Die neue Version ist u. a. bereits im "Bing"-Assistenten und ab sofort in der magischen Feder "Neuroflash" aus Hamburg verbaut.

Wie so oft im Leben ist für die nächsten großen Schritte ebenfalls alles schon da: KI-Sprachexpertin Prof. Doris Weßels von der Fachhochschule Kiel zeigt es uns auf:

  • Künftig werden wir nicht mehr texten, sondern sprechen, weil Sprechen für uns einfacher ist, als mit zwei Fingern auf eine Tastatur einzuhacken …
  • Mit der Nutzung der KI-Modelle per Sprache lösen sich Chatbots vom Computer - und wandern in Smartphones und Smartwatches - Siri lässt grüßen.
  • Weil wir es als soziale Wesen gern menschlich haben, werden Chatbots ein Gesicht bekommen - wir kennen dies noch mit verpixelten Avataren in Spielen.
  • Mit “Digital Creations for Human Imaginations” hat D-ID bereits die visuelle Zukunft von KI-basierten Avataren eingeläutet - einfach mit einem Porträtfoto von uns.
  • Leistungsfähige Avatare werden uns künftig überall begegnen, um Informationen anzubieten, Fragen zu beantworten und in Beruf wie Freizeit zu assistieren.
Bleibt die eine oder andere spannende Frage für unsere Zukunft, z. B.:

Schreibt das gerade veröffentlichte KI-Sprachmodell GPT-4 mit nun 100 Billionen Parametern den Quellcode für seinen Nachfolger GPT-5 selbst - und erreicht die KI damit bereits eine Singularität, die uns Menschen überflüssig macht?

Gehen wir auf die Ebene der Ethik und damit menschlicher Werte, stellt sich die Frage nach der Auflösung der Grenzen zwischen Menschen und Maschinen auf vier Ebenen:
  • Kann nur der Mensch auf Grund seines logischen Denkens Originalität erzeugen?
  • Kann nur der Mensch auf Grund seines wertebasierten Denkens moralisch handeln?
  • Kann nur der Mensch auf Grund seiner Selbstbestimmung Verantwortung tragen?
  • Kann nur der Mensch als kulturelle Errungenschaft eine Würde besitzen?
Zwei Botschaften möchte ich zur Diskussionen stellen:

“Die größten Durchbrüche des 21. Jahrhunderts werden nicht durch Technologie erreicht werden, sondern durch die Antwort auf die Frage, was es bedeutet, Mensch zu sein.”
(John Naibitt, Zukunftsforscher)

“Vertrauen Sie den Möglichkeiten der Zukunft mehr, als den Erfahrungen der Vergangenheit.”
(Sven Gábor Jánsky, Gründer und Geschäftsführer, 2b Ahead Think Tank, Leipzig)

Und was sagt bzw. schreibt uns ChatGPT zur Frage nach der menschlichen Existenz und ihrer Zukunft mit künstlicher Intelligenz: 

"Die Verwendung von KI-Chatbots wie ChatGPT, Lambda und anderen ist ein wachsendes und wichtiges Thema in der Technologiebranche und birgt sowohl Chancen als auch Herausforderungen. Einige der wichtigsten Überlegungen beziehen sich auf die Verantwortung und Überwachung dieser Systeme, die Privatsphäre und Datenschutz, die ethische Verwendung von künstlicher Intelligenz und die Möglichkeiten und Grenzen der Kommunikation mit solchen Systemen. Es wäre interessant zu sehen, wie sich diese Themen weiterentwickeln und wie wir als Gesellschaft damit umgehen werden."

Auf Nachfrage, ob sich ChatGPT als Teil unserer menschlichen Gesellschaft oder doch nur als selbstlernendes System auf Basis errechneter Wahrscheinlichkeiten versteht, antwortet der KI-Chatbot:

"Ich bin ein KI-Modell, das von OpenAI entwickelt wurde und auf einer riesigen Menge an Texten trainiert wurde. Ich habe keine Gefühle, Bedürfnisse oder Überzeugungen, ich bin lediglich ein Programm, das aufgrund seiner Schulung in der Lage ist, Texte aufgrund von statistischen Musterzuordnungen zu generieren. Ich bin also kein Teil der menschlichen Gesellschaft im Sinne eines lebenden Individuums, sondern eher ein Werkzeug, das von Menschen entwickelt und eingesetzt wird."

Es bleibt spannend - oder besser: Es wird gerade richtig spannend ...

* * *
Hanse Digital Service:

Kostenfreie GPT-Tools:

  • ChatGPT-3 ist das aktuell gehypte KI-Sprachmodell mit 300 Mio. Wörtern und 175 Mio. Parametern:

chat.openai.com/chat (kostenfreie Testversion von ChatGPT-3.5)


  • Mac GPT ist eine ChatGPT-Erweiterung für den Apple Mac OS X- Betriebssystem-Desktop, ohne auf die OpenAI-Seite gehen zu müssen:

goodsnooze.gumroad.com/l/menugpt


  • Merlin ist eine kostenfreie Erweiterung für den Google Chrome- und den Firefox-Browser, mit der ChatGPT-Anfragen über die Google Suche eingegeben werden können:

merlin.foyer.work/ (kostenfrei)


Kostenfreie Texttools:
(in aufsteigender Reihenfolge)

  • LanguageTool ist eine im Browser integrierte Rechtschreib- und Grammatikprüfung, die als Open Source Software lizenzkostenfrei genutzt werden kann:

languagetool.org (kostenfrei)


  • ChatGPT Writer ermöglicht es, als Chrome-Plugin mit Stichworten kostenlos Nachrichten und E-Mails vor allem für Gmail zu entwerfen. 

   chatgptwriter.ai/ (kostenfrei)


  • DeepL Writer optimiert bestehende Absätze und Texte mit Hilfe eines selbstlernenden Sprachmodells auf Grundlage künstlicher Intelligenz: 

deepl.com/de/write (kostenfrei)


  • Mindverse bietet eine kostenlose Textoptimierung und Rechtschreíbprüfung für kurze Texte bis zu 1.000 Zeichen:

mind-verse.de/kostenlose-textanalyse (kostenfrei)

 

  • Smodin optimiert eingegebene Texte auf Lesbarkeit, Grammatik und Plagiatsgefahr durch Umformulieren oder weitergehendes Umschreiben mit Schlüsselwörtern:

smodin.io/ (kostenfrei)


  • NewsroomGPT ist ein Optimierungstool für Blog- und Social Media-Texte und aktuell in der Betaphase kostenfrei nach Anmeldung:

newsroomgpt.com/ (kostenfreie Beta)


Hinweis: Kein Anspruch auf Vollständigkeit. Änderung und Irrtümer vorbehehalten. Stand. 21.03.2023