Montag, 11. September 2023

Achtung, Abzocke! Wie der REWE-Schnell-Lieferdienst FLINK seine Kunden übervorteilt.

HANSE DIGITAL RECHERCHE 

Ratten im Lebensmittel-Lager. Juristen, die Arbeitnehmer niedermachen. Und jetzt neu: Apps, die Gutscheine nicht einlösen und Supporter, die nur abwimmeln dürfen. Willkommen bei FLINK - dem "Elite"-Absolventen-Startup mit den flinken Fingern in fremden Brieftaschen.

Lassen nicht nur engagierte Fahrer über die Klinge springen ...
Grafik: Flink

Update, 13.09.2023: Sie sind vermeintliche "Elite"-Absolventen teurer Privat-Hochschulen, wie der EBS in Oestrich-Winkel im teuren Taunus oder der WHU in Vallendar bei Koblenz im Wald. Ihre Karrieren sind so glatt wie ihre von prekären Arbeitnehmern zum Mindestlohn gebügelten weißen oder hellblauen Oberhemden - wahlweise auch unter scheinbar demokratisch wirkenden Werbe-Hoodies. Ihr Lebenslauf beginnt bei Unternehmensberatungen oder Investmentgesellschaften, wie Bain & Company, KPMG oder SoftBank. Ihre Karriere in Berliner Startups starten Sie nicht selten in Rocket Internet-Firmen, wie Foodora oder Home24. Gelernt ist gelernt.

Die Generation CxO vornehmlich Berliner Jungunternehmer hat in Studium, Beratung und Traineeprogramm vor allem eines verinnerlicht: "more for less", sprich: mehr Output für weniger Input. Oder wie es ihre übervorteilten Kunden auf den Punkt bringen: "Abzocker, Betrüger, Räuber". Davon kann jeder Kunde eines der bekannten Consumer-Startups mindestens ein Lied singen: Mal wird nicht geliefert, was bestellt war, mal spielt der Kundendienst mit einer Junior-Praktikantin "toter Käfer". Mal ist das Herauspressen des letzten Euro Teil des Geschäftsmodells - inkl. Apps. Beispiel: Der Berliner Schnell-Lieferdienst "Flink". Genau, die mit den gewerkschaftsfeindlichen Manieren.

Fehlen nur noch die Ratten und der Kot aus dem Flink-Lager ...
Grafik: Flink

Dass Mäuse bei Flink in einem Lager Lebensmittel anknabbern und ihren Kot hinterlassen haben? "Scheiß drauf! Das merkt schon keiner!" Dass Mitarbeiter gefeuert werden, die einen Betriebsrat gründen wollen, weil die Arbeitsbedingungen der Fahrer ("Rider") mit nicht funktionierenden Apps, kaputten Fahrrädern und falschen Abrechnungen unter aller Würde sind? "Wer will uns irgendwas beweisen? Wir sind die Kings of the Castle!" Und dass das Geschäftsmodell des "Quick Commerce" in Deutschland nicht funktioniert, wie uns ein Ex-Operations-Manager von Gorillas bestätigt? "Schwamm drüber, wir holen uns mit aufgehübschten Zahlen noch mehr Millionen von dummen Investoren!" So weit, so bekannt, so verantwortlich ist das Elite-Berater-Seriengründer-C-Level-Team.

Was der clevere Oliver von Bain & Company, der bekannte Julian von Foodora/Rocket Internet und der nicht weniger clever erscheinende Christoph von Home24/Rocket Internet zusammen mit dem für Deutschland zuständigen Martin von Bain & Company sich da ausgedacht haben, ist schon eine neue Qualität in der Kategorie "more for less". Mit großflächiger Werbung, Newsletter-Bomben und auf den ersten Blick großzügigen Rabatten versucht die REWE-Beteiligung (das sind die mit zuckerhaltigen Getränken für Diabetiker), den Abgesang der Schnell-Lieferdienste in deutschen Großstädten zu ihrem Vorteil zu wenden, indem Kunden des verkauften Konkurrenten Gorillas und des geschrumpften Getir gelockt werden, wie es jede Sexarbeiterin aufm Hamburger Kiez nicht aufdringlicher machen könnte (und dabei wesentlich charmanter wirkt).

Mit kleinen Kindern für fragwürdige App-Methoden werben? Schon mutig.
Grafik: Flink

Damit lockt Flink bewusst Kunden an, die ihnen zwar kurzfristig gewünschte KPIs (Stichwort: aufgehübschte Zahlen) liefern, aber nur kaufen, wenns wirklich billig ist, wie z. B. Studenten, die sich mit Rabatt die schweren Bierkästen von Indern billig bis an die Haustür liefern lassen. Oder Schnäppchenjäger, die nachrechnen, ob die Preise mit 32 % Rabatt (8,- € auf 25,- € Einkaufswert) tatsächlich günstiger sind, als im Discounter. Flink wäre nicht Flink (die mit Ratten im Lager und Falschaussagen im Arbeitsgericht), wenn Sie nicht noch eine Masche auf Lager hätten. Und die betrifft ihre Bestell-App - in diesem Fall für iOS, also iPhones. Die neueste bekannt gewordene Nummer aus der Kunden-Kategorie "Abzocker, Betrüger & Räuber" ist umso hinterlistiger:

Wer über die App gerade noch verfügbare Artikel in seinen Warenkorb legt (und davon gibt es zeitweise kaum welche), ist fast schon ein glücklicher Kunde. Wer dann den angepriesenen Gutschein einmal aktiviert, denkt an einen wirklich günstigen Einkauf. Doch Vooooorsicht! Der drohende Betrug steckt im Detail - und das ist wohl kein Zufall. Wer vor dem Check-out noch einmal zurück in die Produkte geht, um etwas hinzuzufügen oder zu verändern, erlebt am Ende des Einkaufs sein blaues Wunder: Alle ausgesuchten Artikel sind noch im Warenkorb, wie zu erwarten. Der bereits aktivierte Gutschein ist - oops! - verschwunden. Wer jetzt nach bestem Wissen bestellt - ist der dumme, ver.rschte Kunde. Der Gutschein wurde einfach nicht eingelöst.

Können diese Augen lügen? Oh ja, das können sie.
Flink-Deutschland-Chef Martin Esch ist verantwortlich.
Foto: Linkedin/Martin Esch

Weil man zunächst an das Gute glaubt, wendet man sich unwissend an den Kundendienst per integriertem App-Chat. Der ist - ebenso wie viele Produkte - praktisch nicht verfügbar. Die flinken Finger von Flink erlauben sich eine Reaktionszeit von zwei Stunden. Halt so kundenunfreundlich und personell unterbesetzt, wie man es bei einem Schnell-Liefer-Startup auf "Elite"-Niveau erwarten darf. Und dann kommt's: Mit Standard-Abwürge-Floskeln macht der Kundendienst von Customer-was auch immer-Care Nicola Knopp dicht, auch auf ausdrückliche Nachfrage: Die Unannehmlichkeiten tun ihnen leid, aber man könne da nichts machen. Genau hier beginnt der offensichtliche Betrug nach dem bekannten Prinzip "Greife mehr ab, als Du eigentlich verdienst" aka "more for less".

Natürlich kann Flink - wie es auch Essens-Lieferdienste können - überzahlte Beträge oder Gutschriften nach Reklamationen über den gleichen Kreditkarten-Kanal zurückbuchen. Wollen Sie aber nicht! Sind ja zu Hause in der Kategorie "Abzocker, Betrüger, Räuber" (siehe oben). Dass der Zero-Level-Support der flinken Abgreifer um Frau Knopp nichts regulieren darf - o.k. Kann man so machen, ist dann halt sch...... Also suchen wir uns die für Kundendienst und das Deutschlandgeschäft verantwortlichen Managerinnen und Manager heraus. Jetzt machen wir verständlich, dass wir uns von nun an "unter Erwachsenen" unterhalten. Mit einer Frist erwarte ich die Rückerstattung des überzahlten Betrags. Und siehe da: Sie spielen ... "toter Käfer"!

Hat gut lachen, wenn es um ihren Startup-Job geht: 
FLINK-Kundendienst-Chefin Nicola Knopp
Ihre Kunden lachen bei ihrem Zero-Level-Support nicht mehr ...
Foto: Linkedin/Nicola Knopp

Spätestens jetzt ist das Schuldeingeständnis komplett. Wer tatsächlich im Recht wäre, hätte keinen Grund, sich unterm Tisch zu verstecken. Wäre es nur ein technischer Fehler, könnte jetzt in Hinweis auf Weiterleitung an die App-Entwicklung erfolgen. Und sollte man eine Gutschrift nicht so schnell bearbeiten können, reicht ein Hinweis auf die zeitnahe Erledigung. Von alldem wollen die flinken Finger aus der Berliner Brunnenstraße nichts wissen. Und geben sich so offen der Kritik preis. Weil sie wissen, dass es den Fehler in der App-Programmierung gibt? Weil sie wissen, dass Kunden reihenweise darauf hereinfallen? Und weil sie damit einen zusätzlichen Geldregen genießen, den sie gar nicht verdienen? Wohl ja, steht ja alles in §11.5 ihrer AGBs.

Da der hier auf den Beschiss reingefallene Autor weder zur Kategorie "dummer Endkunde" gehört, noch im Zweifel den Fall auf sich beruhen lässt, habe ich Flink gegenüber die Stornierung der Zahlung angekündigt und diesen Artikel adressiert. Wie zu erwarten, spielen die "flinken Abzocker" weiterhin "toter Käfer". Statt im Kundeninteresse zu agieren, kommt eine weitere, dritte Supporterin mit den AGBs um die Ecke. Dort heißt es unter §11.5: "Eine nachträgliche Anrechnung nach Abschluss des Bestellvorgangs ist ausgeschlossen. Nicht genutzte Rabatte werden nicht ausgezahlt." Womit klar ist, wie sie ihr Abgreifen aka den Trick mit der App rechtfertigen.

Nun wird das Ganze publizistisch und juristisch aufgearbeitet. Wollen wir doch mal schauen, inwieweit die AGBs der luxemburgischen Steuerspargesellschaft Flink SE unserer bekannten CxO's rechtswidrig sind (die Verbraucherzentralen werden sich freuen ...). Schauen wir doch mal genauer hin, ob das Berliner "Elite"-Absolventen-Startup neben seinen dreisten Methoden gegen Fahrer auch Kunden versucht, niederzumachen. 

Das ist dann gern eine weitere öffentliche Geschichte aus der Kategorie "Achtung, Abzocke!" Ob das den flinken Fingern der Startup-CxOs zufriedene Kunden bringen wird, die ihre Zahlen stabilisieren - oder es der Anfang vom Ende eines weiteren "Minimax"-Liefer-Startups war - wir haben da so einen bestimmten Verdacht. Bis dahin haben die "Elite"-Boys einen weiteren Gutschein ausgelobt: 5,- € auf 25,- € Umsatz - den sie dann gemäß AGBs auch wieder nicht einlösen werden-wollen-können-müssen. Wen wundert's ...

Follow up 12.09.2023:

Nachdem ich den o. g. Damen und Herren mitgeteilt habe, dass Ihre Geschichte jetzt auch von ihren Mitarbeitern und vor allem Kunden online nachgelesen werden kann, taucht Supporterin Nr. 3 "Matilda" erneut auf. Um den Fall vom Tisch zu kriegen, bietet sie einen neuen 8,- € Gutschein an, damit ich noch mal einkaufen gehe. Echt jetzt? Darf ich erneut auf die bekannt fehlerhafte App reinfallen? Ist das ein dummer Scherz oder ein dreister Versuch, erneut überhöhte Zahlungen abzugreifen? Glauben die "Elite"-Absolventen wirklich, mich mit einem neuen Gutschein ködern zu können? 

Hier steht ein möglicher Betrug mit Hilfe technischer Mängel beim Checkout im Raum. Der ist mit Verweis auf ihre sicher angreifbaren AGBs nicht totzureden. Und um den kümmern sich jetzt 1. die Kreditkarten-Bank, 2. die Verbraucherzentrale und 3. der Staatsanwalt. Auch die Drohung der Supportin, den Fall jetzt von sich aus schließen zu wollen, wird daran nicht ändern. Vielmehr ist die Drohung ein weiterer Beweis, dass man hier Kunden schnell und billig abfrühstücken will, um seinem (nicht wirklich) skalierbaren Geschäft nachgehen zu können - mit Junior-Somethings im Support, die sich besser einen offenen, ehrlichen und fairen Arbeitgeber suchen sollten.

Follow up 13.09.2023:

Als ich gestern Abend die E-Mail von X (vorm. Twitter) las, dachte ich zuerst: 'Was ist das denn?' Da schreibt der Kurznachrichtendienst in einer Mitteilung an uns:

"Wir haben eine Beschwerde über die folgenden Inhalte deines Accounts, @HANSEVALLEY, erhalten". Es ist unser Tweet zum gestrigen Update des Beitrags mit den letzten Versuchen der Flink-Supporterin Matilda, den Fall ohne Erstattung und damit zufriedenstellender Klärung - dafür aber mit einem neuen Gutschein - abzuwürgen:


Jetzt wird es nicht nur unschön, jetzt zeigen die verantwortlichen Manager von Flink ihr ganzes, hässliches Gesicht. Unter dem Vorwand einer DSGVO-Beschwerde versuchen sie über ihre Social Media Manager und Hausjuristen, die Veröffentlichung ihrer zweifelhaften Aktivitäten aus der Öffentlichkeit verschwinden zu lassen. Bis gestern galt im Kontext der Flink-Aktivitäten 'Dümmer geht immer'. Jetzt gilt 'Denn sie wissen genau, was sie tun'. Twitter hat den Post untersucht und festgestellt:

"Wir haben den gemeldeten Inhalt untersucht und sind zu dem Ergebnis gekommen, dass er im Rahmen der Twitter Regeln (https://support.twitter.com/articles/18311) oder deutscher Gesetze nicht der Entfernung unterliegt."

Wir sind gespannt, bei welchen Social Media Netzwerken die flinken Finger aus der Berliner Brunnenstraße noch versuchen werden, unsere Berichterstattung und die dazu gehörende Social Media Begleitung zu behindern und nach Möglichkeit löschen zu lasssen. Wir sind gespannt, mit welchen Mitteln und Methoden sie ihre zweifelhaften Aktivitäten gegen Kunden und Journalisten weiter treiben werden.

Wir weichen keinen Millimeter zurück und verweisen auf unseren Redaktionskodex HANSECODEX.

Unser Tipp: Finger weg von flinken Fingern. Die greifen zu tief in fremde Taschen und versuchen, mit zweifelhaften Tricks ihr angreifbares Verhalten zu rechtfertigen.

*    *    *

Freitag, 1. September 2023

25hours Hotels: Almost home? Besser nicht!

Warnhinweis: Dieser Beitrag kann auf Grund qualifizierter Schilderungen unhygienischer Umstände deutliche Würgereize hervorrufen. Empfindliche Leser werden gebeten, besser in hygienische Hotels wie Motel One oder Premier Inn einzuchecken. Dies ist keine Werbung.

Außen "so lala", innen dafür richtig ranzig: das 25hours Hotel The Trip.
Foto: HANSEVALLEY

Update, 04.09.2023: Zwischen beißendem Urin-Gestank und aggressiven Drogen-Händlern sowie -Konsumenten wartet im Rande des Frankfurter Bahnhofsviertels das 25hours Hotel "The Trip" auf seine Gäste - z. B. ein halbes Dutzend Journalisten auf Pressereise zu einem führenden Konsumgüter-Hersteller. Was man in der ehemaligen Levis-Deutschland-Verwaltung und benachbarter Pelzwäscherei an - Zitat 25hours-Pressemappe - "der Schnittstelle zwischen dem bunten, lauten Quartier und dem bürgerlichen Westend" erleben kann, ist wirklich ein Trip - allerdings eher aus der Kategorie "asoziale Abzocke" - Made in Hamburg. Soviel Ehrlichkeit muss sein: 

Reihenweise kaputte Glühlampen? Das macht nix, das merkt keiner ...
Foto: HANSEVALLEY

Wer sich hier als Zielpublikum "urbaner Nomade" (Zitat 25hours-Pressemappe) am Morgen mit seinem Rasierer hübsch machen möchte für den Tag, sollte fürs Bad (ebenso wie für den Nachttisch) besser eine eigene Taschenlampe mitbringen. Denn in kleinen wie großen Doppelzimmern gibt es eines nicht ... Licht am Spiegel zum Rasieren und/oder am Nachttisch. In drei aufeinander bereitgestellten Zimmern dasselbe Trauerspiel: Kaputte Lampen, kaputte Lampen und ... - Sie ahnen es vielleicht schon - kaputte Lampen. Der Werbespruch verspricht, sich "almost home" zu fühlen. Reihenweise kaputte Lampen gehören eigentlich nicht dazu. Aber man lernt ja nie aus ... KNSA/25hours-Hospitality ist halt wie das wahre Leben: mal schmuddelig, mal mangelhaft, mal mit beißendem Gestank.

Bei 25hours haben viele gierige Firmen ihre Finger in der Torte ...
Foto: HANSEVALLEY

Dabei liegen fehlende Glühlampen nicht etwa an gebrochenen Lieferketten, wie die Hamburger 25hours-Zentrale aus der Hafencity der Hansestadt gern verargumentieren würde. Das liegt an mangelnder - oder wie uns unsere Frankfurter Kollegin zu verstehen gibt - auch komplett abgeschaffter teurer Zimmerkontrollen, überforderten externen Zimmermädchen in Akkord-Verträgen und vor allem an Managern, die mit den 152 Zimmern eines tun: Geld herausziehen und toter Käfer spielen - für Eigentümer und Projektentwickler Ardi Goldman, Betreiber KNSA (Ex-25hours), Management-Gesellschaft Ennismore/Fortune Hotels, Partner Accor-Hotels - und wer hier noch die Finger in der Torte hat. 

In 24 Stunden einmal um die Welt? Besser nicht hier ...
Foto: HANSEVALLEY

Kein Wunder, dass 2,95 € für eine simple Lampe nicht mehr übrig sind. Das 25hours dreckige Zimmer vermietet, haben wir bereits im Hamburger "Stammhaus" in der Hafencity erleben müssen (Stichwort: Haare vom Vorgänger am Spiegel, auch sehr "lecker"). Das 25hours beim Frühstück der O-Saft ausgeht ("der Lieferant hat nicht geliefert"...), eine einzige Marmelade angeboten wird und Diabetes-Patienten dank fehlender Diät-Produkte garantiert einen Insulin-Schock bekommen - das ist neu. Laut Hamburger Operation-Managerin ist das Konzept! "Weniger Buffet, mehr à la carte". Ach so nennt man das heute ... Frage: Ist man hier schon so auf den Hund gekommen, dass einem Gäste völlig egal sind? Die Arroganz des externen Frühstückspersonals der Bar Shuka lässt sowas ahnen.

Nach Corona ist vor Corona: Konzept "In 25hours zum Arzt"
Foto: HANSEVALLEY

Genug der kleinkarierten Meckerei! Wir kommen jetzt mal runter und genießen den "Press Room" aka Lounge. Bei einem Blick auf den bequem wirkenden Sessel kommt uns allerdings - sorry, aber das geht leider nicht mehr "politisch korrekt" - das Kotzen! Denn dort macht sich ein gebrauchtes Tempo-Taschentuch breit - in Zeiten wieder steigender Corona-Zahlen ein besonderer Service des Hauses und ähnlich appetitlich wie die über Stunden nicht weggeräumten Bierpullen im hauseigenen "Café". Wer das Hotel-Motto "Around the world in one day" wörtlich nehmen will, ist mit allen nur erdenklichen Auffrischungsimpfungen sicherlich nicht verkehrt am Platz. Eine einzelne überforderte Junior-Empfangsmitarbeitern lässt in Sachen Sauberkeit und Hygiene noch Schlimmeres erahnen.

Patina aus Kalk im teuren Ennismore-Accor-Style
Foto: HANSEVALLEY

Also machen wir es uns in den individuell gestylten und umso lauter promoteten Zimmern für 120,- €, 140,- €, 160,- € und mehr gemütlich - theoretisch. Wenn der Kalk an der Regendusche nicht mind. seit Wochen dort Party feiern würde. Ok, kann mal passieren, oder? Etwa so zufällig, wie abgeplatzte bunte Zimmerwände, millimeterdicke Staubschichten an daneben stehenden Polstermöbeln oder nur die kaputte Gardine? Wir wollen ja nur verstehen, welcher Entertainment-Faktor neben der Minibar "all inclusive" ist, und um welchen sich das Gesundheits- und das Gewerbeamt kümmern müssen. Ein Fall für Zwei: "Stadt Frankfurt: Übernehmen Sie!"

Das soll so: "Almost home" inkl. Staub & Dreck a la 25hours.
Foto: HANSEVALLEY

Wir sparen uns an dieser Stelle den Klopapierhalter näher zu erwähnen, der fast von selbst von der Wand fällt, weil Dübel und Schrauben hier auch Mangelware zu sein scheinen. Und der versiffte Rest eines Notizblocks inkl. Wasserflecken (alles in Fotos dokumentiert) soll uns auch nicht weiter interessieren. Dafür findet man in den Zimmern Streaming-Lautsprecher für den Ausflug durch den benachbarten Drogenstrich (Entertainment ist halt alles), eine Messenger-Tasche fürs Shopping im Touri-Abzock-Rewe um die Ecke und ein "Schlafmonster" aka Kuschel-Dingens - wofür auch immer (bitte nicht klopfen, es könnte stauben). 

Kaputte Gardinen, verdreckte Vorhänge - so sieht Style in 2023 aus.
Foto: HANSEVALLEY

Die kullerbunten Gimmicks sollen Individualisten ein besonderes Gefühl von "come as you are" bieten - inkl. Staub und Fettgrabschern der Vormieter. Oder glauben Sie, dass hier jeden Tag alles tipptopp geputzt wird? Sie können es ja gern mal selbst testen: Für wenige Euro gibt es bei AliExpress oder Temu Schwarzlicht-Taschenlampen. Damit testen die Profis von Holidaycheck gern mal vermeintlich geputzte Toilettendeckel & Co. Nur so als Tipp: "Come as you are" - gern auch mit Glühlampen und Schwarzlicht. Ich denke, Hotelier Christoph Hoffmann, Gründer Kai Hollmann und ihre Hamburger Kumpels - pardon, ihr geschäftstüchtiges "Kollektiv" - werden sicher nichts dagegen haben. 

Wer laut meckert, kann ja umziehen, z. B. ins benachbarte Niu Hotel Charly. Klingt stylisch? Soll es auch! Denn die ebenfalls in Hamburg beheimatete Novum-Hotelkette macht genau das Gleiche: individuell anmutende Zimmer mit viel Tamtam - für höhere Preise. Eine Alternative? Vooorsicht! Novum Hotels schafft es auch (z. B. in Hamburg St. Georg) stinkende Zimmer mit verstopften Abflüssen zu vermieten. Nur damit Sie Bescheid wissen, dass Urin-Gestank im Frankfurter Bahnhofsviertel nicht das Einzige ist, dass Ihren nächsten Hotel-Aufenthalt in direkter Nachbarschaft zum Drogen-Hotspot Karlsplatz zu einem besonders individuellen "Trip" durch abgeranzte Zimmer machen kann. 

Na dann: Gute Reise!

P. S. Wenn Sie glauben, Schlamperei ist nur eine Frage des Versehens: Schauen Sie sich mal die Google-Bewertungen für das Frankfurter Schwesterhaus 25hours "The Goldman" an. Ich sage nur Glassplitter auf dem Teppich, schlecht gereinigte Zimmer und nicht hilfsbereites Personal ... Scheint eine 25hours-Krankheit zu sein, miserabler Gastgeber zu sein. Oder liegt es an Gesellschafter Accor, der sich einen Teufel um einen korrekten Hotelbetrieb schert? Ich frage für einen Freund ... ;-)

Montag, 19. Juni 2023

HANSEMACHINE: Prof. Marlis Prinzing: "KI-Technik ist ein Hammer!"

HANSEMACHINE


Die Journalistin, Hochschullehrerin und Kommunikationswissenschaftlerin Prof. Marlis Prinzing von der bundesweit engagierte Macromedia Hochschule 
spricht im Gast-Interview für das Hanse KI Magazin HANSEMACHINE über die Verbindung von Journalismus und Künstlicher Intelligenz.

Prof. Marlis Prinzing weiß, wie sich KI wie ChatGPT auf den Journalismus auswirkt.
Foto: Macromedia Hochschule

Künstliche Intelligenz (KI) ist gerade in aller Munde und verändert aktuell viele Lebensbereiche. Inwieweit wird sich dies auf den Journalismus auswirken? Marlis Prinzing, Professorin an der Hochschule Macromedia, erklärt im Hanse Digital Interviews, welche Auswirkungen KI-Technik haben kann:

Sie haben verschiedene Fachbeiträge über „Journalismus im digitalen Aufbruch“ veröffentlicht. Inwiefern verändern digitale Technologien die öffentliche Kommunikation?

Eine sehr große Frage. Digitale Techniken ermöglichen es, sich besser zu vernetzen, zu informieren und zu artikulieren denn je. Über sie lässt sich die öffentliche Meinungs- und Willensbildung massiv prägen. Global agierende Tech-Unternehmen haben daraus ein Geschäftsmodell gemacht: 

Indem wir auf sozialen Medien rasch und emotional auf Inhalte reagieren, die uns ein darauf ausgerichteter Algorithmus dort anbietet, erzeugen wir Daten, aus denen diese Unternehmen ihren Erlös erzielen. Das konkurriert teilweise mit Geschäftsmodellen für Journalismus, bei denen öffentliche Relevanz, Werte und damit Faktenprüfung und Recherche zentrale (und kostspielige) Größen sind.

Journalismus ist zweifach gefragt: KI-Techniken beeinflussen z. B. alltägliche journalistische Arbeitsroutinen und sie sind ein wichtiges Thema, zu dem Journalisten recherchieren und über das sie berichten müssen. Die Anwendungen solcher Techniken und die Abschätzung negativer wie positiver Folgen, also Fragen nach digitaler Ethik, reichen in viele gesellschaftliche Bereiche hinein, sind also nicht ausschließlich „Tech-Themen“. 

Journalisten müssen sie dringend als das behandeln, was sie sind: ressortübergreifend bedeutsame Querschnittsthemen. Im Journalismusstudium an unserer Hochschule sensibilisieren wir in mehreren Kursen für solche Zusammenhänge.

Neben routinemäßigen Aufgaben sind KI-basierte Systeme zunehmend auch in der Lage, kreative Prozesse zu übernehmen und selbst Texte zu verfassen. Aktuell erlangt die Anwendung ChatGPT große Popularität. Inwieweit werden künstliche Intelligenzen bereits im Journalismus eingesetzt?

Wir können drei Phasen unterscheiden. In Phase 1 lag der Fokus auf der Automatisierung von datengesteuerten Informationen (Spielergebnisse, Wahlergebnisse, Börsenkurse etc.). Viele Redaktionen sowie Agenturen (Reuters, AFP, AP etc.) begannen, solche Werkzeuge einzusetzen. In Phase 2 rückten Datenjournalismus-Projekte in den Fokus, denn maschinelles Lernen und Sprachverarbeitungstechnik ermöglichten, große Datenmengen zu analysieren sowie Trends, Muster und interessante Zusammenhänge für Geschichten zu entdecken. 

In manchen Redaktionen wurden Datenjournalismus-Teams gebildet und KI- oder Innovations-Labs installiert. Nun haben wir Phase 3 erreicht: Der Fokus liegt auf generativer KI, also auf Sprach-, Code- und Bilder-Generatoren, einer davon ist der oft zitierte Chatbot GPT. Ein solches Sprachmodell kann im Handumdrehen immense Mengen Erzähltext erzeugen. In etlichen Redaktionen wird mit generativer KI mehr oder weniger intensiv experimentiert.

Welchen Einfluss hat das auf die journalistische Qualität?

Unterschiedlichen Einfluss. KI-Technik kann ein nützliches Werkzeug sein, das einem Routinearbeiten abnimmt und diese präzise und hoch konzentriert ausführt. Man kann sie zum Sparring nutzen, um blitzschnell Überschriften-Alternativen zu produzieren, sie Textgerüste erstellen lassen, die man überprüft und ergänzt. Das schafft zeitliche Freiräume, um zu recherchieren, zu analysieren, Ideen zu entwickeln – Arbeiten, die KI-Technik gar nicht schafft.

KI-Technik kann aber auch die journalistische Glaubwürdigkeit kosten, wenn man nicht kontrolliert, welche Texte und vermeintliche Fakten sie ausgibt, wenn man nicht transparent macht, wo sie eingesetzt wird, oder das Publikum täuscht, wie etwa die Zeitschrift „aktuelle“ im April 2023, die vorgab, ein Interview mit dem verunglückten Rennfahrer Michael Schumacher geführt zu haben, und dann auflöste, dass sie das mittels KI vorgespielt hat. 

Qualitätsentscheidend ist: Wer ein KI-Werkzeug einsetzt, muss wissen, wie es wirklich funktioniert, und sich bewusst sein, dass er sich der Verantwortung nicht entziehen kann: Richtet ein Algorithmus Schaden an, kann man nicht ihn bestrafen, sondern nur beispielsweise die Entwickler und Anwender.

Wie schätzen Sie künstliche Intelligenz in Bezug auf Fake News ein?

KI-Technik ist wie ein Hammer. Man kann mit ihm einen Nagel für ein Bild einschlagen, den man mit den Fingern nicht in die Wand bekäme. Man kann eine Macke in die Wand schlagen. Oder jemanden erschlagen. Dem Hammer ist das egal. Und der KI ist egal, ob der Text, den sie ausgibt, stimmt, alles Mögliche verdreht oder kompletter Bullshit ist. KI-Technik generell wird immer leistungsfähiger. 

Entsprechend wird Desinformation raffinierter und täuschend echt, Fehler bei Text- wie bei Bild-Manipulationen lassen sich immer schwerer erkennen. Doch nicht KI-Technik an sich ist das Problem, sondern Anwender, die mit dem Werkzeug nicht umgehen können oder die Böses im Schilde führen, Menschen manipulieren, verunsichern und Wahrnehmungen vortäuschen wollen.

An der Hochschule Macromedia betreuen Sie den Studiengang Journalismus und beschäftigen sich unter anderem mit dem Thema Ethik im Journalismus. Was genau ist damit gemeint?

Ethik zeigt, wie sich Werte in praktisches Handeln umsetzen lassen und wer auf welcher Grundlage wofür in der Verantwortung steht. So können wir unseren Kompass ausrichten und eine begründete Vorstellung davon entwickeln, was geht und was zugemutet werden muss. Das richtet sich an jeden, ist redaktionell, individuell und unternehmensethisch relevant. 

Zentral ist meist nicht das „Ob“, sondern das „Wie“: wie wird über Krieg und Katastrophen berichtet, wie ist die Qualität der Datensätze, mit denen KI-Instrumente trainiert werden, wie werden Inhalte personalisiert: So stark, dass Filterblasen entstehen, oder offener?

Wie sieht die Zukunft des Journalismus aus? Brauchen wir überhaupt noch Journalisten, wenn zunehmend Teile der journalistischen Arbeit durch KI basierte Systeme abgelöst werden?

Diese Frage wird oft gestellt, trifft aber nicht den Kern. Bei allem, was bislang entwickelt wurde, handelt es sich um eine sogenannte „schwache KI“, die keinesfalls einen Menschen ersetzen, sondern ihm nur bestimmte Aufgaben abnehmen kann. Kein Werkzeug kann Journalismus und damit das Rückgrat einer digitalen demokratischen Gesellschaft ablösen. 

KI arbeitet auf Basis bestehender Datensätze, die nach bestimmten Vorgaben durchforstet werden, Journalismus hingegen ist eine Instanz für den Austausch über Dinge, Personen und Ereignisse, die Menschen umtreiben, die sie verstehen und einordnen wollen, vor denen sie gewarnt werden müssen oder zu denen sie Ideen suchen, was sie tun oder wie sie helfen können. Noch zu regeln sind zudem unter anderem rechtliche und ökonomische Fragen.

Gegenwärtig füllen Tech-Unternehmen beispielsweise Sprachmodelle mit journalistischen Inhalten, ohne für sie zu bezahlen und ohne das Einverständnis der Urheber dieser Inhalte einzuholen.

Spricht klare Worte in Sachen Journalismus.
Foto: Martin Jepp


Was würden Sie Ihren Studentinnen und Studenten mit auf den Weg geben?
  • Hartnäckig recherchieren, Dingen auf den Grund gehen, hinhören, hinterfragen (auch sich selbst!)
  • Falsifikatorisch vorgehen, also Sachverhalte aus unterschiedlichen Blickwinkeln betrachten, und überlegen, was gegen eine These spricht, insbesondere wenn sie naheliegend erscheint.
  • Sich der hohen Verantwortung von Journalismus der Gesellschaft gegenüber bewusst sein.

*  *  *





Marlis Prinzing ist Studiendekanin am Campus Köln der Macromedia Hochschule, Local Head der Kölner Wirtschaftsfaktultät sowie Professorin für Journalistik. Sie leitet das bundesweite, hochschulinterne das Study Program Journalism. Ihre journalistische Laufbahn begann sie bei einer Regionalzeitung, als freie Journalistin schrieb sie u.a. für „Die Zeit“, die „Financial Times Deutschland“ und die „Frankfurter Allgemeine Zeitung“. Sie ist Partnerin der Initiative „Qualität im Journalismus“.

 Hanse Digital Background: 

Macromedia Hochschule - Standort Hamburg:

Macromedia Hochschule - Fachbereich Journalismus Köln:

Dienstag, 18. April 2023

HANSEMACHINE: GPT 3.5 vs. 4.0 - Ein Experten-Chat, was besser ist.

HANSE KI MAGAZIN

"GPT-4 hat gegenüber GPT-3.5 einige Verbesserungen implementiert, um noch größeren Mehrwert für Nutzer zu bieten."
- Jonathan Mall, Gründer und CIO von Neuroflash aus Hamburg -

Ab sofort können wir mit KI-Tools reden, genauer gesagt, chatten.
Grafik: Neuroflash AI Image Generator

Das KI-Sprachmodell GPT von OpenAI ist seit Veröffentlichung Ende November '23 in aller Munde. Mit GPT-3.5 als kostenfrei nutzbare Betaversion und GPT-4 sind nun zwei Versionen des Textgenerators online und für Texte und mehr nutzbar. Welche Version ist für welche Aufgabe besser geeignet? Sollte ich das kostenpflichtige ChatGPT 4 nutzen, oder reicht 3.5 aus?

Das junge Hamburger Unternehmen Neuroflash ist einer der Vorreiter für KI-basierte Texttools. Mehr als 100 verschiedene Textarten können mit den Online-Vorlagen der "magischen Feder" erstellt werden. Gründer Jonathan Mall ist einer der klugen Köpfe hinter der Content Generator Suite. Wir haben Ihn zur aktuellen Entwicklung interviewt:

GPT-3.5 und GPT-4 – Was ist heisst das?

Du hast vielleicht schon von GPT-3 gehört, aber kennst du auch GPT 3.5? Es handelt sich hierbei um eine verbesserte Version des bekannten Sprachmodells von OpenAI. GPT-3.5 bietet eine höhere Leistungsfähigkeit und Genauigkeit als sein Vorgänger und kann somit noch komplexere Aufgaben bewältigen. 

Es handelt sich bei GPT-3.5 um ein künstliches sowie neuronales Netzwerk, das darauf trainiert wurde, natürliche Sprache zu verstehen und auch zu generieren. Das Modell kann Texte schreiben, Fragen beantworten und sogar Übersetzungen anfertigen. Damit ist GPT-3.5 einen Schritt näher, die menschliche Sprache perfekt zu beherrschen und wiederzugeben.

Jetzt weißt du, worum es sich bei GPT-3 handelt. Doch wie sieht es mit GPT-4 aus? GPT-4 ist die neueste Version des OpenAI Sprachmodells nach GPT-3.5 und verspricht, noch leistungsstärker zu sein als sein Vorgänger. GPT-4 soll beispielsweise in der Lage sein, noch komplexere Texte zu generieren und sogar menschenähnliche Konversationen zu führen.

Außerdem kann GPT-4 zusätzlich zum Text auch Bilder verstehen. Obwohl GPT-4 erst veröffentlicht wurde, sind viele User bereits gespannt auf dessen Fähigkeiten und darauf, wie das Sprachmodell die KI-Textgenerierung weiter revolutionieren wird. Es bleibt abzuwarten, ob GPT-4 wirklich so beeindruckend sein wird, wie die Idee es verspricht, aber sicher ist, dass die Zukunft der KI-Textgenerierung aufregend bleibt.

Vergleichen wir die beiden Modelle: Wo sind die Unterschiede?

Wenn wir die beiden Modelle GPT-3.5 und GPT-4 miteinander vergleichen, gibt es einige signifikante Unterschiede. Zum Beispiel ist GPT-4 in der Lage, komplexere Aufgaben zu bewältigen, als GPT-3.5. Der größte Unterschied zwischen GPT-3.5 und GPT-4 besteht damit in der Leistungsfähigkeit der Modelle. GPT-3.5 kann Text mit geringerer Genauigkeit erzeugen, während GPT-4 Texte in höherer Qualität produzieren kann.

GPT-4 kann dazu auch eine viel größere Menge an Daten verarbeiten und somit bessere Ergebnisse liefern. Im Vergleich zu GPT-3.5, das bis zu 3.000 Wörter als Eingabeaufforderung verarbeiten kann, kann GPT-4 bis zu 25.000 Wörter Eingabeaufforderung inklusive visuellem Input verarbeiten. 

Schließlich ist GPT-4 ein noch intelligenteres System. GPT-3.5 gehörte nach der BAR-Prüfung zu den untersten 10 % der getesteten Systeme, doch GPT-4 übertrifft 90 % aller Kandidaten. Dazu kommt, dass GPT-4 noch mehr Sprachen als GPT-3.5 versteht, wie zum Beispiel auch Lettisch, Thai oder Swahili.

Welche Verbesserungen hat GPT-4 gegenüber GPT-3.5?

GPT-4 hat gegenüber GPT-3.5 einige Verbesserungen implementiert, um noch größeren Mehrwert für Nutzer zu bieten. Gemäß OpenAI, zeichnet sich das GPT-4 Sprachmodell der nächsten Generation durch bedeutende Fortschritte in vier zentralen Bereichen aus:
  • Innovationskraft: Hinsichtlich der Innovationsfähigkeit zeigt sich GPT-4 als äußerst leistungsfähig, vor allem wenn es darum geht, kreative Vorhaben zu realisieren. Hierzu zählen etwa musikalische Kompositionen, Filmdrehbücher, technische Texte und sogar das Adaptieren des individuellen Schreibstils eines Nutzers.
  • Visuelle Informationen: Als ein multimodales Modell kann GPT-4 auch Bildmaterial als Basis für Interaktionen erkennen und verarbeiten. Dies ermöglicht es Nutzern, in Zukunft nicht nur textbezogene, sondern auch visuelle Eingaben zu tätigen.
  • Größerer Kontext: Das Verständnis von langem Kontext ist bei GPT-4 eine weitere bedeutsame Verbesserung. Das Sprachmodell hat die Fähigkeit, bis zu 25.000 Wörter von Nutzern zu verarbeiten. Es ist sogar möglich, GPT-4 einen Weblink zu schicken und es um Interaktion mit dem Text auf der Website zu bitten. OpenAI betont, dass dies nützlich für die Erstellung von umfangreichen Inhalten sowie für längere Gespräche sein kann.
  • Verlässlichkeit: GPT-4 zeichnet sich durch seine erhöhte Verlässlichkeit aus. Nach internen Untersuchungen von OpenAI zu urteilen, kann es 40 % fundiertere Antworten liefern. Dabei sinkt die Wahrscheinlichkeit, dass es auf falsche Inhalte eingeht, um beeindruckende 82 %.

Zusammenfassend lässt sich sagen, dass sich die Entwickler bei GPT-4 auf die Verbesserung der Sprachmodellierung konzentriert haben, um die Leistung von GPT-4 zu erhöhen. Eine der wichtigsten Verbesserungen ist die Fähigkeit, mehr Kontext zu verstehen und zu verwenden, um bessere Ergebnisse zu generieren. 

So kann GPT-4 vor allem komplexere Zusammenhänge besser verarbeiten. Darüber hinaus wurde die Fähigkeit zur Generierung von Texten verbessert, was bedeutet, dass GPT-4 in der Lage ist, noch menschenähnlichere Sätze und Absätze zu erstellen. All diese Verbesserungen machen GPT-4 zu einem beeindruckenden Sprachmodell, das uns sicherlich in Zukunft noch mehr beeindrucken wird.

Ist GPT-4 also in jedem Fall die bessere Version?

Es ist wichtig, die Stärken und Schwächen beider Modelle im Vergleich zueinander zu betrachten. Zuerst sollte man berücksichtigen, dass ein GPT-3.5-Textgenerator grundlegende Aufgaben momentan (noch) schneller bewältigen kann als GPT-4 – aufgrund seiner reduzierten Parameteranzahl und der kleineren Menge an zu verarbeitenden Daten. Daher ist es für kleinere und elementare Aufgaben häufig ratsam, GPT-3.5 anstelle von GPT-4 zu verwenden. 

Dennoch erfordern komplexere Aufgaben einen umfangreicheren Parametersatz und eine größere Datenmenge. Hier zeigt sich der Nutzen von GPT-4: Es ermöglicht eine höhere Präzision bei anspruchsvollen Aufgaben und liefert somit bessere Ergebnisse. Alles in allem lässt sich aber grundsätzlich sagen, dass noch Uneinigkeit darüber herrscht, welches Modell besser ist. 

Bis jetzt haben beide Modelle weiterhin einen großen Nutzen für Verbraucher, denn letztendlich ist persönliche Präferenz bei der Auswahl des Sprachmodells für die spezifische Anwendung entscheidend.

Und Dein persönliches Fazit als KI-Experte?

Zunächst einmal ist klar, dass beide Modelle beeindruckende Fortschritte in der Textgenerierung gemacht haben. GPT-4 scheint jedoch in einigen Bereichen noch einen Schritt weiter zu sein als sein Vorgänger. Insbesondere die Fähigkeit, komplexe Zusammenhänge zu verstehen und zu verarbeiten, ist ein großer Fortschritt. 

Letztendlich hängt die Wahl des richtigen Modells von den individuellen Bedürfnissen der Nutzer ab. Wenn du eine Textgenerierung benötigst, die komplexere Zusammenhänge verarbeiten kann, ist GPT-4 definitiv die bessere Wahl. Wenn du jedoch eine Textgenerierung benötigst, die natürliche Sprache schnell und effektiv generieren kann, ist GPT-3.5 immer noch eine hervorragende Alternative.

Vielen Dank für die fundierten Einblicke!

Das Interview führte Thomas Keup.

*  *  *

Über Jonathan Mall

Dr. Jonathan T. Mall ist Chief Innovation Officer von Neuroflash und hat nach seiner Promotion in Neuropsychologie vor allem im Bereich Big Data und visueller sowie semantischer Marketing-Optimierung gearbeitet. 

Neuromarketing und die Etablierung wissenschaftlicher Methoden in quantitativer Marktforschung stehen in seiner Arbeit klar im Fokus.


Über Neuroflash


Die Neuroflash GmbH ist ein Softwareunternehmen mit Sitz in Hamburg und versteht sich als deutsches Pendant zur ChatGPT. Die Gesellschaft wurde 2021 gegründet und hat heute zehn Mitarbeiterinnen und Mitarbeiter. 

Neuroflash generiert als SaaS die besten deutschen Texte in der DACH-Region. Die "magische Feder" von neuroflash hilft dabei mehrfach: 

Als bisher günstigste Lösung mit kostenfreier Einstiegsvariante können auch Selbstständige und KMUs in Sekundenschnelle Textideen erhalten und viel effizienter arbeiten. Von der Ideenfindung bis hin zum finalen Text, die hohe Variabilität beim Schreiben und das Optimieren der Wirksamkeit von Botschaften, wird in einer Software gelöst.

*  *  *
 Hanse Digital Background: 

HANSEFUTURE:
ChatGPT & Co - Das Outsourcing geistiger Arbeit hat begonnen!

HANSEMACHINE Bard, ChatGPT & Co.:
Das geht mit den neuen KI-Chatbots in Marketing und Business.

Dienstag, 21. März 2023

HANSEFUTURE: ChatGPT & Co - Das Outsourcing geistiger Arbeit hat begonnen!

HANSE DIGITAL FUTURE
- 1.100 Leser. Und Sie. -

Erstmals werden uns mit ChatGPT die künftigen Möglichkeiten künstlicher Intelligenz bewusst.
(Illustration: Kushinuke McFly, Pixabay)

Die US-Jobbörse "Resumebuilder" hat 1.000 Geschäftsführer zum Umgang mit ChatGPT befragt. 49 Prozent setzen den Chatbot bereits in ihrem Unternehmen ein, 30 % planen die Verwendung zumindest.

99 % der Unternehmen, in denen ChatGPT schon genutzt wird, sprechen von maßgeblichen Ersparnissen durch das Tool. 48 % wollen dabei mehr als 50.000,- $ eingespart haben, elf Prozent sogar mehr als 100.000,- $. Der Blick aufs Sprachmodell ist positiv geprägt, 55 % bezeichnen die Performance von ChatGPT als „exzellent“.


66 % der Befragten, die das Sprachmodell nutzen, verwenden es zum Schreiben von Code, 58 % zum Verfassen von Text-Inhalten. 57 % nutzen die KI-Unterstützung im Kundensupport und 52 % zum Verfassen von Besprechungsprotokollen.


32 % der Befragten gehen davon aus, dass ChatGPT in den nächsten fünf Jahren „auf jeden Fall“ zu Entlassungen führen wird, 31 % halten das für „wahrscheinlich“.

(Quelle: t3n.de News, 27.02.2023)


Was machen 10.000 Nividia Tesla GPUs V100 und bis zu 20 Mio. $ Investition für das Training einer KI möglich? Ein bis Juni 2021 mit 45 TB Daten und 176 Mrd. Wortsilben (Token) eigentlich dummes Plappermaul, das Menschen auf der ganzen Welt auch durch sein Selbstbewusstsein fasziniert. Mit der exponentiellen Nutzung von ChatGPT seit 30. November 2022 scheint eine neue Zeitrechnung angebrochen zu sein: die Zeit vor ChatGPT als erstem universellen Sprachdialogsystem - und die Zeit danach. Auch wenn GPT-3 seit Juni 2020 existiert.

Sprechen die einen von einer echten Revolution, die das Leben aller Menschen verändern wird, befürchten die anderen bereits eine Konkurrenz von Mensch und Maschine, verbunden mit der alles entscheidenden Frage nach unserer Existenz. Wie in jedem Entwicklungs- oder Produkt-Zyklus probieren die "Innovatoren" in der aktuellen Phase als “First Mover” aus, was möglich ist - ob Software coden, Prüfungsarbeiten schreiben oder Roboter antreiben. Chefredakteur und GPT-Nutzer Thomas Keup ordnet die aktuelle Entwicklung aus der Vogelperspektive ein:


Sam Altman, CEO OpenAI, ABC News, 16.03.2023

"Generative Systeme wie ChatGPT und BARD stehen für eine zweite Welle des Outsourcings, die nicht mehr primär die menschliche Muskelkraft betrifft, sondern auch die Geisteskraft. Damit wir dadurch nicht unselbstständig werden, soll KI dem von Kant geprägten Leitspruch der Aufklärung folgen und uns ermutigen, uns unseres eigenen Verstandes bedienen zu wollen",  sagt Lukas Mohr, Head of CX-Platform und Digital Services bei der Bonner "Scopevisio AG" - im Vorfeld eines von ihm geleiteten Think Tanks anlässlich der Gründung des "Virtuellen Kompetenzzentrums Schreiben, Lehren und Lernen mit KI", initiiert von Prof. Doris Weßels an der FH Kiel, einer der führenden Spezialistinnen zum Thema KI und Schreiben.

Womit wir mitten in der Diskussion wären: 
  • Welche Textaufgaben übernimmt künftig ein KI-Sprachmodell? 
  • Wer wird z. B. seinen Texter-Job in Deutschland verlieren? 
  • Und welche Text-Berufe haben eine Überlebenschance? 

Die Frage ist alles andere, als trivial: Im Jahr 2020 gab es in Deutschland rd. 34.000 Beschäftigte in der Werbebranche einschl. Online-Marketing - und damit viele Copywriter. Hinzu kommen rd. 30.000 PR-Experten in Pressestellen, PR-Agenturen und Freelancer - und damit hauptberufliche Texter. Ebenfalls betroffen: rd. 42.000 fest angestellte und freiberufliche Journalisten - und damit professionelle Texter. Unter dem Strich sprechen wir allein in Deutschland von mehr als 100.000 Menschen, die mit Worten und Texten ihr Geld verdienen - pardon - verdient haben ...

Sam Altman, CEO OpenAI, ABC News, 16.03.2023

Mit mehr als 30 Jahren journalistischer Erfahrung und über 25 Jahren Background als PR-Spezialist behaupte ich: Als Texter haben wir mit dem auf einer Google-Softwarearchitektur basierenden, Text generierenden KI-Sprachmodell neue Chancen, unsere Arbeit effektiver und effizienter im Auftrag unserer Redaktionen, Organisationen und Kunden zu erledigen. Grund: Als Textarbeiter sind wir es gewohnt, strukturiert, selektiv und damit punktgenau Texte zu planen und zu entwerfen, zu schreiben und zu optimieren. Daher bieten uns KI-Sprachmodelle eine Chance, unsere Arbeit produktiv zu begleiten, zu unterstützen und weiter zu professionalisieren.

Womit wir beim "Pferdefuss" der Angelegenheit wären, genauer gesagt bei einer ganzen Herde galoppierender Pferdefüsse:

Wenn jeder mit Hilfe eines frei verfügbaren Textchats jede Form von Text erstellen lassen kann, müssen wir auf inflationäre Weise mit einer Flut von “Na ja”-Texten rechnen, wie der Hamburger "Neuroflash"-Gründer Jonathan Mall auf den Punkt bringt. Da das statistische Sprachmodell darauf ausgerichtet ist, allgemein verständlich zu schreiben bzw. zu antworten, bekommen wir vor allem Durchschnittstexte mit Durchschnittsmeinungen in Durchschnittssprache präsentiert. Erste "Spezialisten" versuchen bereits auf "Amazon", "Kindle"-Bücher aus KI-Chats zu verhökern.

Dies ist eine der massiven Folgen von ChatGPT. Grund: Die Chat-KI ist nichts anderes als eine Maschine, die die Wahrscheinlichkeit für korrekt zusammengesetzte Worte errechnet. Das kann gut gehen, kann aber auch zu "halluzinierenden" Ergebnissen führen, sprich: die Maschine würfelt sich was zusammen und gibt es uns als berechnet glaubwürdig und total selbstbewusst aus. Das Problem: Die Antwort ist womöglich erstunken und erlogen - aber hätte mathematisch stimmen können. Wenn der KI-Chatbot dann keine Quellen mitliefert, ist die KI für Recherchezwecke ungeeignet und sogar gefährlich.

Keine Chance für Junior-Somethings in Social Media Agenturen ...

Da sich das Sprachmodell mit seinen eigenen Inhalten trainiert, kommt es zu einem weiteren heiklen Thema: Bestehende Texte werden immer wieder reproduziert - und damit auch die Fehler in den Texten. Durch die zirkuläre Reproduktion verstärken sich so auch inhaltliche Schwächen. Bekanntestes Beispiel: Tay - ein als weiblich definierter KI-Chatbot von "Microsoft", den der Softwareriese im März 2016 auf Twitter loslies. Ergebnis: aus dem vermeintlichen "Hipster-Mädchen" wurde über Nacht ein "Hitler-Bot", denn die KI lernte aus dem, was auf Twitter rumgeisterte. Ende vom Lied: Es wurde der Stecker gezogen.

Erik Brynjolfsson, Standford-Institute for Human Centred-AI (HAI) + Stanford Digital Economy Lab 

Noch kann ein KI-Sprachmodell Sprachstile von Menschen nicht unterscheiden, z. B. Joe Biden von Donald Trump. Damit ist der aktuelle KI-Chatbot noch nicht in der Lage, regionale oder individuelle Unterschiede in unserer Sprache zu berücksichtigen. Das aktuelle Sprachmodell versteht noch keine Besonderheiten der menschlichen Kommunikation, z. B. Ironie oder Sarkasmus. Das gilt auch für menschliche Interaktionen, wie Bedürfnisse, Vorlieben oder Anforderungen. Die genannten Schwächen sind gute Gründe für professionelle Texter, einem Textchat erst einmal mit Vorsicht zu begegnen. 

Stellt sich die Frage, wo und wie ein allgemein "sabbelnder", manchmal auch dreist lügender und sich selbst in den Spiegel guckender Chatbot sinnvoll sein kann und damit - wie eingangs in den Raum gestellt - "geistige Leistungen" von Menschen ablöst, die digital schneller, einfacher und günstiger zu erledigen sind? Wie bei jedem Outsorcing-Prozess erwischt es zunächst die "ungelernten" Kräfte, gefolgt von den "angelernten" Arbeitnehmern, den "Junior"-Mitarbeitern und den "austauschbaren" Arbeitsplätzen. An dieser Stelle empfehle ich allen "Junior"-Somthings in Social Media Agenturen, sich schon mal ein anderes Berufsfeld zu suchen. Denn: Jubel-Posts für Social Media kann ChatGPT bereits perfekt!

Wenn ChatGPT für professionelle, reflektierende Texter zumindest im Moment noch keine größere Konkurrenz ist, wofür eignet sich denn ein Sprachmodell bereits in der Praxis - und was hat dies für Folgen?

Ein offener Zugang zu einem KI-Sprachmodell wie ChatGPT bedeutet z. B. Chancengleichheit in der Bildung, da keine Studiengebühren oder eine Privathochschule für ein inhaltlich hochwertiges, selbstbestimmtes Lernen notwendig sind. Voraussetzung: Schulen und Hochschulen kümmern sich um die Folgen von KI-Sprachmodellen und versuchen nicht, sie mit allen Mitteln zu verbieten, um ihre angestammten Frontalvorlesungen und Schönschreibübungen vor der Flutwelle zu retten. Ich würde mir als Student jetzt eine Hochschule suchen, die die Herausforderung annimmt, und das mündliche Er-/Lernen sowie ein persönliches Reflektieren in den Mittelpunkt stellt.

Durch natürlich eingegebene Fragen oder Hinweise bekommen wir von dem regressiven KI-Sprachmodell einfach verständliche Aussagen und Erklärungen in für uns statistisch zusammengestellten Texten auch zu komplexen Sachverhalten, was unsere Akzeptanz in der Nutzung erhöht. Durch allgemein verständliche Texte des Sprachmodells bekommen wir die Chance, auch unbekannte Themen leicht kennenzulernen, uns anzueignen und für unsere Zwecke zu adaptieren. Hier beginnt die Assistenz-Funktion, die "Microsoft" in "Bing" und "Google" in seiner Suche einbauen werden. Damit verändert sich die Suche zu einem Frage-Antwort-Chat, der im positiven Fall eine neue Qualität des Kennen-/Lernens ermöglicht.

Mit gezielten Eingaben in das KI-System lässt sich bereits heute eine Menge Zeit sparen, denn mit natürlich gestellten, eingeordneten Fragen und Anweisungen bekommen wir eine qualifizierte, ausformulierte Antwort angeboten. Wie im Journalismus können wir mit Fragen, Nachfragen, aber auch Hinweisen und Ansagen im Dialog die Qualität der individualisiert ausgegebenen Texte steuern, verbessern und nach unseren Vorstellungen optimieren. Ein Sprachmodell kann uns bei der Kreativität helfen, da wir diese jederzeit und in jedem Zusammenhang über das “Large Language Model” abrufen können.

Ein Oursourcing von geistiger Arbeit - In Wort, Bild und Video.

Für die Prüfung z. B. von Rechtschreibung und Grammatik ist das aktuell für jedermann veröffentlichte Sprachmodell in der Version 3.5 bereits gut nutzbar. Zudem können wir z. B. auf GPT aufgesetzte Erweiterungen für die Textarbeit einsetzen, wie z. B. das deutsche "LanguageTool". Wir selbst entscheiden, wie weit uns der KI-Chatbot begleiten kann bzw. darf. Im Interesse eines jeden Professionals, “mehr mit weniger” erreichen zu können, wird z. B. ChatGPT einen Platz als Suchassistent und Entwurfslieferant einnehmen. Als deutsche Muttersprachler haben wir mit ChatGPT zudem erstmals einen Glücksgriff gemacht, da der Betreiber "OpenAI" neben der Ausgangssprache Englisch auch weitgehende Sprachmodelle vor allem für deutsche und spanische Nutzer entwickeln lassen hat.

Neben der Integration in Suchmaschinen und Browser kommen KI-Sprachmodelle in Office-Anwendungen und Content-Management-Systeme als Textgeneratoren und Rechtschreibprüfung, ohne dass wir sie explizit als KI wahrnehmen. Gerade kündigte "Microsoft" einen auf ChatGPT basierenden Text-, Präsentations- und Tabellenassistenten namens "Copilot" für "365" an. Die Grundlage: ChatGPT-4. Professionelle Anwender werden auf KI-Sprachmodelle aufsetzende Online-Services nutzen, um in ihrer Arbeit einen gezielten Nutzen zu haben. Dies können z. B. Korrektur- oder Optimierungs-Tools sein - auch branchenspezifisch verfeinert.

Zudem werden KI-Chatbots im persönlichen wie professionellen Umgang zu einem Ratgeber bzw. einer Einstiegshilfe für neue, interessante Themen, die sich durch einen immer detaillierter werdenden Dialog ergeben und weiter verfeinern lassen. Damit gehören Schreibblockaden beim Texten schon bald der Vergangenheit an. Mit Hilfe von KI-basierten Assistenten lässt sich zudem bereits Quellcode für Software entwickeln, können Entwürfe von Homepages erstellt werden und es lassen sich Bilder und Grafiken generieren, sei es in ChatGPT-4 oder der "OpenAI"-Schwester Dall-E. Genau das ist es, was Lukas Mohr in seinem Eingangsstatment sagt: ein Outsourcing von geistiger Arbeit.

Und was heißt das alles für die armen, nun arbeitslos werdenden Social Media-Somethings, die in den kommenden Monaten und Jahren ihre "Ikea"-Schreibtische räumen müssen?

So, wie die Nutzung von Office-Anwendungen heute zu den Standard-Skills in der Arbeitswelt gehören, zählen für viele Berufe in Zukunft Erfahrungen bei der Nutzung von Chatbots inkl. semantischem Denken und Fähigkeit zum Prompten - sprich der qualifizierten Eingabe von Fragen bzw. Anweisungen - als Voraussetzungen. Um KI-Sprachmodelle bewusst einzusetzen, sollten Anwender ein Verständnis für die Nutzung von Daten, der Verknüpfung und Verarbeitung entwickeln. Dies findet auf der Meta-Ebene oberhalb der praktischen Anwendung von Sprachtools statt.

Als Schreibexperten wird sich unser Texten durch die Möglichkeiten des Ausprobierens stärker qualifizieren, im Bereich der Veröffentlichung stärker quantifizieren, da wir mehr Texte in gleicher Zeit erarbeiten können. Dies kann Segen und Fluch zugleich sein. Auf jeden Fall werden wir als professionelle Texter künftig immer weniger für Schönschreibübungen bezahlt, sondern für kreative Ideen und professionelle Wege. Auf Grund einer zu erwartenden Flut an KI-generierten Texten werden wir als Leser zugleich stärker selektieren, was wir wirklich durch-/lesen wollen - oder uns lediglich durch Zusammenfassungen bzw. beim “Überfliegen” zur Kenntnis geben.

Sind wir im aktuell verbreiteten “Natural Language Processing” (NLP) auf antrainierte Sprache in Text fokussiert, bekommen wir durch das in Zukunft in den Vordergrund rückende “Natural Language Understanding” logisch-verknüpfte Antworten. Nach der generativen KI mit generierten Worten und Texten ist vor der instruktiven KI, die Wissen berücksichtigt und damit Zusammenhänge erkennen und verarbeiten kann. Damit nähern sich KI-(Sprach)modelle den menschlichen Fähigkeiten immer weiter an. Das ist auch der Hintergrund des aktuellen "Rattenrennens" zwischen den beiden Online-Gigangten "Microsoft" und "Google".

Fast alle Bereiche werden erschlossen, z. B. durch Assistenzsysteme.

Ein entscheidender Schritt beim Verstehen menschlicher Anforderungen ist die Aufbereitung von Antworten oder Lösungen aus mehrstufigen Gedankenschritten, die vorgeformt zur Verfügung stehen, z. B. juristische Argumente aus früheren Verfahren. Zu den interessantesten Branchen für die Nutzung von KI-Sprachmodellen gehören z. B. Bildung, Forschung und Wissenschaft, Medien und Marketing, aber auch der Immobiliensektor. Wir dürfen davon ausgehen, dass fast alle Bereiche erschlossen werden - sei es als Assistenzsysteme, sie es als menschliche Arbeit ersetzende Business-Software-Services.

Seit Kurzem ist die nächste Stufe von ChatGPT nutzbar: ChatGPT-4 verspricht laut Übersicht des Hamburger Sprachtool-Anbieters "Neuroflash" gleich eine ganze Reihe Vorteile gegenüber der Version 3.5. Dazu gehören längere Inhalte, da die Zahl der rückwärts berechneten Token bzw. Silben nicht mehr auf 4.000 begrenzt ist. Dazu kommt eine bessere Qualität in allen Sprachen, da GPT-4 mit 100 Billionen Parametern eine Verhundertfachung seines bislang gelerntes Umfanges beherrscht. Dazu kommt eine höhere Präzision im Ausdruck, verbesserte Orientierung an Fakten und eine höhere Sprachintelligenz. Die neue Version ist u. a. bereits im "Bing"-Assistenten und ab sofort in der magischen Feder "Neuroflash" aus Hamburg verbaut.

Wie so oft im Leben ist für die nächsten großen Schritte ebenfalls alles schon da: KI-Sprachexpertin Prof. Doris Weßels von der Fachhochschule Kiel zeigt es uns auf:

  • Künftig werden wir nicht mehr texten, sondern sprechen, weil Sprechen für uns einfacher ist, als mit zwei Fingern auf eine Tastatur einzuhacken …
  • Mit der Nutzung der KI-Modelle per Sprache lösen sich Chatbots vom Computer - und wandern in Smartphones und Smartwatches - Siri lässt grüßen.
  • Weil wir es als soziale Wesen gern menschlich haben, werden Chatbots ein Gesicht bekommen - wir kennen dies noch mit verpixelten Avataren in Spielen.
  • Mit “Digital Creations for Human Imaginations” hat D-ID bereits die visuelle Zukunft von KI-basierten Avataren eingeläutet - einfach mit einem Porträtfoto von uns.
  • Leistungsfähige Avatare werden uns künftig überall begegnen, um Informationen anzubieten, Fragen zu beantworten und in Beruf wie Freizeit zu assistieren.
Bleibt die eine oder andere spannende Frage für unsere Zukunft, z. B.:

Schreibt das gerade veröffentlichte KI-Sprachmodell GPT-4 mit nun 100 Billionen Parametern den Quellcode für seinen Nachfolger GPT-5 selbst - und erreicht die KI damit bereits eine Singularität, die uns Menschen überflüssig macht?

Gehen wir auf die Ebene der Ethik und damit menschlicher Werte, stellt sich die Frage nach der Auflösung der Grenzen zwischen Menschen und Maschinen auf vier Ebenen:
  • Kann nur der Mensch auf Grund seines logischen Denkens Originalität erzeugen?
  • Kann nur der Mensch auf Grund seines wertebasierten Denkens moralisch handeln?
  • Kann nur der Mensch auf Grund seiner Selbstbestimmung Verantwortung tragen?
  • Kann nur der Mensch als kulturelle Errungenschaft eine Würde besitzen?
Zwei Botschaften möchte ich zur Diskussionen stellen:

“Die größten Durchbrüche des 21. Jahrhunderts werden nicht durch Technologie erreicht werden, sondern durch die Antwort auf die Frage, was es bedeutet, Mensch zu sein.”
(John Naibitt, Zukunftsforscher)

“Vertrauen Sie den Möglichkeiten der Zukunft mehr, als den Erfahrungen der Vergangenheit.”
(Sven Gábor Jánsky, Gründer und Geschäftsführer, 2b Ahead Think Tank, Leipzig)

Und was sagt bzw. schreibt uns ChatGPT zur Frage nach der menschlichen Existenz und ihrer Zukunft mit künstlicher Intelligenz: 

"Die Verwendung von KI-Chatbots wie ChatGPT, Lambda und anderen ist ein wachsendes und wichtiges Thema in der Technologiebranche und birgt sowohl Chancen als auch Herausforderungen. Einige der wichtigsten Überlegungen beziehen sich auf die Verantwortung und Überwachung dieser Systeme, die Privatsphäre und Datenschutz, die ethische Verwendung von künstlicher Intelligenz und die Möglichkeiten und Grenzen der Kommunikation mit solchen Systemen. Es wäre interessant zu sehen, wie sich diese Themen weiterentwickeln und wie wir als Gesellschaft damit umgehen werden."

Auf Nachfrage, ob sich ChatGPT als Teil unserer menschlichen Gesellschaft oder doch nur als selbstlernendes System auf Basis errechneter Wahrscheinlichkeiten versteht, antwortet der KI-Chatbot:

"Ich bin ein KI-Modell, das von OpenAI entwickelt wurde und auf einer riesigen Menge an Texten trainiert wurde. Ich habe keine Gefühle, Bedürfnisse oder Überzeugungen, ich bin lediglich ein Programm, das aufgrund seiner Schulung in der Lage ist, Texte aufgrund von statistischen Musterzuordnungen zu generieren. Ich bin also kein Teil der menschlichen Gesellschaft im Sinne eines lebenden Individuums, sondern eher ein Werkzeug, das von Menschen entwickelt und eingesetzt wird."

Es bleibt spannend - oder besser: Es wird gerade richtig spannend ...

* * *
Hanse Digital Service:

Kostenfreie GPT-Tools:

  • ChatGPT-3 ist das aktuell gehypte KI-Sprachmodell mit 300 Mio. Wörtern und 175 Mio. Parametern:

chat.openai.com/chat (kostenfreie Testversion von ChatGPT-3.5)


  • Mac GPT ist eine ChatGPT-Erweiterung für den Apple Mac OS X- Betriebssystem-Desktop, ohne auf die OpenAI-Seite gehen zu müssen:

goodsnooze.gumroad.com/l/menugpt


  • Merlin ist eine kostenfreie Erweiterung für den Google Chrome- und den Firefox-Browser, mit der ChatGPT-Anfragen über die Google Suche eingegeben werden können:

merlin.foyer.work/ (kostenfrei)


Kostenfreie Texttools:
(in aufsteigender Reihenfolge)

  • LanguageTool ist eine im Browser integrierte Rechtschreib- und Grammatikprüfung, die als Open Source Software lizenzkostenfrei genutzt werden kann:

languagetool.org (kostenfrei)


  • ChatGPT Writer ermöglicht es, als Chrome-Plugin mit Stichworten kostenlos Nachrichten und E-Mails vor allem für Gmail zu entwerfen. 

   chatgptwriter.ai/ (kostenfrei)


  • DeepL Writer optimiert bestehende Absätze und Texte mit Hilfe eines selbstlernenden Sprachmodells auf Grundlage künstlicher Intelligenz: 

deepl.com/de/write (kostenfrei)


  • Mindverse bietet eine kostenlose Textoptimierung und Rechtschreíbprüfung für kurze Texte bis zu 1.000 Zeichen:

mind-verse.de/kostenlose-textanalyse (kostenfrei)

 

  • Smodin optimiert eingegebene Texte auf Lesbarkeit, Grammatik und Plagiatsgefahr durch Umformulieren oder weitergehendes Umschreiben mit Schlüsselwörtern:

smodin.io/ (kostenfrei)


  • NewsroomGPT ist ein Optimierungstool für Blog- und Social Media-Texte und aktuell in der Betaphase kostenfrei nach Anmeldung:

newsroomgpt.com/ (kostenfreie Beta)


Hinweis: Kein Anspruch auf Vollständigkeit. Änderung und Irrtümer vorbehehalten. Stand. 21.03.2023