MARKETING & MEDIA
Redaktion 27.01.2023

George Orwell ist da noch Disneyland

Die KI-Anwendung ChatGPT zeigt deutlich, warum es hier dringend Regelungen braucht.

Kommentar ••• Von Dinko Fejzuli

DYSTOPIE. Moderne Technologien sollen der Menschheit helfen und nützlich sein – so zumindest die naive Ansicht, wenn man an das Gute im Menschen glaubt.

Nicht alle Menschen glauben an das Gute, sondern an den eigenen Vorteil und bedienen sie sich dann auch noch diverser digitaler Tools wie etwa dem KI-basierten Chatbot ChatGPT, der auf Anfrage Texte generiert, bei denen man nicht mehr erkennt, dass sie von einer Maschine kommen – das Ganze wird so zum Problem.

Nämlich dann, wenn die von diesem Bot generierten Texte Falschinformationen enthalten, erfundene Quellen als Basis der eigenen Texte angeben oder längst als Verschwörungstheorien entlarvte Ansichten weiterverbreiten.

Für Laien nicht zu erkennen

Egal ob Text, aber auch – noch schlimmer – Bilder: Auf Künstlicher Intelligenz basierende Programme sind heute in der Lage, Bilder und Texte zu produzieren, die von Laien nicht mehr als künstlich generiert zu erkennen sind.

Damit ist dem Missbrauch Tür und Tor geöffnet.
Dies ist keine Befürchtung, sondern gelebte Realität, wie etwa der Faktencheckerdienst „NewsGuard” mit einem Versuch belegen konnte. Dabei stellt man insgesamt 100 Text-Anfragen an den Bot zu diversen Themen, und am Ende verwendete ChatGPT für 80 der 100 gelieferten Texte Informationen, die zuvor eindeutig als Fake News identifiziert wurden.
Wenn man bedenkt, dass sich viele Menschen ohnehin nur mehr in ihren Bubbles informieren, bedeutet dies nichts mehr und nichts weniger, als dass man sie mit KI-generierten Texten noch mehr beeinflussen kann – die Verantwortlichen bei NewsGuard sprechen hier sogar von ChatGPT als „Waffe”.
Hört man all diese Dinge, ist für mich die Schlussfolgerung ganz klar: Entwicklungen wie ChatGPT sollten sich an gewisse Regeln halten. Die Texte müssen eindeutig als künstlich generiert erkennbar sein, wenn am Ende Bots nicht von der digitalen zur echten Waffe werden sollen.

TEILEN SIE DIESEN ARTIKEL