Der Hype um ChatGPT: Ein Segen und ein Fluch
© APA/AFP/Patrick T. Fallon
KI-Variante in humanoider Form: „­Ameca” wurde von Engineered Arts auf der CES ­vorgestellt.
MARKETING & MEDIA Redaktion 03.02.2023

Der Hype um ChatGPT: Ein Segen und ein Fluch

Wie funktioniert die Software, wie kann sie im Marketing eingesetzt werden – und: Fürchtet man sich zu Recht?

••• Von Georg Sander

Auf einmal war sie da, die künstliche Textintelligenz ChatGPT. Technologische Neuerungen gelten generell entweder als Weltuntergang oder als Meilenstein in der Menschheitsgeschichte. So verhält es sich auch mit ChatGPT, einer sprachbasierten KI, mit der man in einen Dialog treten kann.

Entwickelt wurde der Bot von OpenAI, einem US-amerikanischen Unternehmen, das sich auf die Entwicklung von Künstlicher Intelligenz spezialisiert hat. Hinter der ehemaligen NPO OpenAI stehen mittlerweile unter anderem das Unternehmen Microsoft oder PayPal-Gründer Peter Thiel.
ChatGPT erzeugt mittels verschiedener bereits bekannter Arten von maschinellem Lernen, „Deep Learning”, und einem autoregressiven Sprachmodell (GPT) Texte, die jenen möglichst ähneln, die von Menschen generiert wurden.
Im Vergleich zu seinem Vorgänger InstructGPT versucht ChatGPT außerdem, schädliche und irreführende Antworten zu vermeiden.

Die Funktionsweise

ChatGPT ist grundsätzlich ein mathematisches Modell. Auf Basis der Informationen, die vorhanden sind bzw. vom User eingegeben werden, errechnet der Algorithmus der KI für die Erstellung seiner Texte, wie, rein statistisch betrachtet, das nächste Wort lautet. Der Chatbot greift auf eine Fülle an Daten zu, etwa Soziale Medien, Foren, Zeitungen oder Bücher, aber im Großen und Ganzen auf nichts, was unter „NSFW” („Not Safe For Work”, „nicht zur Ansicht bzw. Verwendung am Arbeitsplatz geeignet”, ein Internet-Ausdruck für Pornografie, Gewalt etc.) läuft.

medianet hat mit zwei Experten gesprochen, die sich von unterschiedlichen Standpunkten aus dem Thema widmen.
Der Chatbot glaubt, alles zu wissen. Davon ist Andreas Wenth überzeugt. Er ist CEO der Digitalagentur clicksgefühle und hat jüngst das Buch „Chat-GPT – Rede mit mir!”, einen Ratgeber für diese Software, herausgebracht. Objektivität stehe nicht im Vordergrund bei dieser KI, meint Barbara Wimmer. Sie ist Expertin in Sachen IT-Sicherheit, futurezone-Redakteurin und Buchautorin („Hilfe, ich habe meine Privatsphäre aufgegeben! – Wie uns Spielzeug, Apps, Sprachassistenten und Smart Homes überwachen und unsere Sicherheit gefährden”).

Im Arbeitseinsatz

Die KI könnte jedenfalls, davon sind viele Experten überzeugt, sehr gut in textbasierten Branchen eingesetzt werden. In einem selbst durchgeführten Versuch bat der Autor ChatGPT, dessen eigene Vorzüge hinsichtlich des Einsatzes im Journalismus aufzuschreiben, und zwar in fünf Bulletpoints. Das Ergebnis (­siehe oben), ist überraschend – die Antworten decken sich mit den Einschätzungen von Fachleuten.

Aber auch für die kreative Arbeit könne ChatGPT eingesetzt werden, wie Wenth weiß: „Ich kann die KI bitten, mir zehn Ideen für Produktslogans geben”, so Wenth, „oder auch um eine Instagram-Kampagne.” Man könne die Vorschläge dann im Austausch mit dem Bot weiter präzisieren. Das Programm wisse schließlich, wie ein Instagram-Posting aufgebaut sein soll. Perfekt seien die Antworten nicht, aber ChatGPT greift auf Billionen Zeichen Text zu und weiß so gewissermaßen mehr, als ein einzelner Mensch sich jemals merken kann.
Wenth hat das alles gleich für sein Buch verwendet: „‚How to create a landing page for a book' – die Inhalte der Landing Page für das Buch habe ich gemeinsam mit dem Bot entwickelt. Auch gleich eine ganze E-Mail-Marketing-Kampagne. Mit einem Thread und dem Produkt-Buch schreibt die KI einen Newsletter, mit dem ich eine Kopie des Buches zu einem Spezialpreis verkaufen kann.” Die KI merke sich einen Kontext, weil er 100 Seiten lang mit der KI über das Buch „geplaudert” habe: „Die KI kennt mich und kann, auf dem basierend, schreiben, was ich eingebe. Man arbeitet im Dialog und kuratiert.”
Im Endeffekt könne man so vor allem wiederkehrende Arbeiten auslagern – oder eben mit Wissen und richtiger Anwendung das eigene Denken um das Wissen des Bots erweitern. Doch wie immer gibt es den einen oder anderen Fallstrick.

Das Quellenproblem

Nachdem es sich bei diesem Bot um einen Prototyp handelt und die Entwickler im Herbst 2021 quasi auf den Stopp-Knopf gedrückt haben, gibt es für Chat-GPT beispielsweise keinen Ukrainekrieg. Darüber hinaus weiß man auch im Regelfall nicht, woher der Bot seine Information bezieht. Nachdem gerechnet und nicht recherchiert wird, gibt es keine Quellenangabe.

Zwar kuratiert OpenAI, was die KI „weiß”, wenn es um toxische Inhalte geht, aber ein Bias ist immer gegeben. Darüber hinaus ist stellt sich auch die Frage, was das Unternehmen mit all den Eingaben, also den Daten, der User, macht.
Barbara Wimmer ortet in Sachen ChatGPT mehrere Probleme. Da wäre einmal der Umstand, dass der Bot „das ganze Internet” gelesen hat und auch verwendet. Das könne vor allem urheberrechtlich zu Problemen führen. KI dürfen das in Österreich nicht, aber: „In der Praxis wird es, wie mir erst kürzlich Florian Prischl von Stadler Völkel Rechtsanwälte erklärt hat, sehr schwierig, nachzuweisen, dass ChatGPT sich wirklich ganze Werke einverleibt hat. Bei Texten gibt es nämlich so etwas wie ein Zitatrecht.”
Laut Wimmer sei ChatGPT zudem nicht dazu geeignet, Faktenwissen abzufragen. Sie wollte wissen, ob ChatGPT weibliche Drum’n’Bass-DJs aus Österreich oder Krimiautorinnen aus Österreich kennt – beides Betätigungsfelder der Journalistin: „In beiden Fällen hat mir ChatGPT Namen ausgespuckt, die entweder erfunden waren, oder DJs aus einem völlig anderen Land und einer völlig anderen Musikrichtung.”
Trete man mit der KI in Dialog und „spricht sie darauf an, dann entschuldigt sie sich, behauptet aber weiterhin Dinge, die erfunden sind”. Die KI hat eben kein „schlechtes Gewissen”. Insofern nütze es offenbar auch wenig, Quellen zu erfragen; außerdem wurde ChatGPT auch schon dabei ertappt, Quellen zu erfinden.

Die Fallstricke

Für Wimmer steht fest: „Chat-GPT ist aktuell nicht geeignet, um Faktenwissen wiederzugeben. Es ist nicht dafür programmiert, zwischen Wahrheit und Fiktion zu unterscheiden.” Insofern besteht die Gefahr, dass User die Inhalte der Texte für wahr halten; eine Quellenkritik ist nicht möglich. Das räumt OpenAI zwar selbst ein, es schützt aber nicht vor missbräuchlicher Verwendung.

Darüber hinaus lauern weitere Gefahren: ChatGPT kann missbräuchlich verwendet werden. „Es ist schon vorgekommen, dass Cyberkriminelle mit ChatGPT ganz einfach Malware programmiert haben”, erklärt Wimmer. „Diese haben sie dann aktiv eingesetzt, um Daten zu stehlen. Auch Phishing-Mails können sich Cyberkriminelle von ChatGPT schreiben lassen; diese wirken dann auch meistens authentischer.” Wenth betrachtet dieses Thema desillusioniert: „Geh als User lieber davon aus, dass deine Daten irgendwann verwendet werden! Digitale Verbrechen sind einfach ein zu lukratives Geschäftsmodell.”

Toxische Inhalte

Diesen Problemfeldern müsse man sich stellen. Auch, dass die EU zwar einen „AI Act” (Artificial Intelligence Act) entwickelt hat, der das Funktionieren der Märkte und des öffentlichen Sektors sowie die Sicherheit und Grundrechte der Menschen gewährleisten soll, dieser aber nicht direkt auf ChatGPT anwendbar ist, wie Wimmer anmerkt. Und: „Keine Künstliche Intelligenz ist frei von Bias”, so Wimmer. „Dass KI objektiver ist als Menschen, ist Schwachsinn. So haben Forschende etwa bereits herausgefunden, dass der Chatbot Frauen eher PR-Jobs zuordnet und Männern eher Programmierjobs.” Doch abseits dieser Problematik birgt die Welt bekanntermaßen viele weitere Unzumutbarkeiten, denen der Bot ausweichen sollte.

Toxische Inhalte versucht OpenAI nach eigenen Angaben zu vermeiden, allerdings mit fragwürdigen Praktiken in der realen Welt. Wie ein Bericht der Times offenlegte, ließ die kenianische Firma Sama die Mitarbeiter für zwei Dollar pro Stunde der KI beibringen, welche toxischen Inhalte nicht auftauchen sollen. Ab November 2021 sollen an das Unternehmen Zehntausende „Negativbeispiele” geschickt worden sein, darunter Beschreibungen von Mord, Folter oder auch sexualisierter Gewalt gegen Kinder. Dies sei für die Bearbeitenden zum Teil äußerst traumatisierend gewesen.
OpenAI dazu lakonisch: „Die Klassifizierung und das Filtern von schädlichen Inhalten ist ein notwendiger Schritt zur Minimierung von gewalttätigen und sexuellen Inhalten in Trainingsdaten sowie bei der Entwicklung von Tools, die so etwas entdecken können.”

Ein Segen, aber …

Fazit: Richtig eingesetzt, kann ChatGPT die Arbeit erleichtern und um mehr Input erweitern. Es generiert dort, wo mit Text gearbeitet wird, Vorschläge, schreibt auch einfache Texte selbst. Doch menschliches Feingefühl in Sachen ­Kommunikation, das kann der Bot nicht. Es ist wie bei jeder technischen Innovation: Richtig verwendet, ist sie ein Segen, in den falschen Händen aber ein Fluch.

BEWERTEN SIE DIESEN ARTIKEL

TEILEN SIE DIESEN ARTIKEL