Digitale Schwimmwesten, falls die Realität baden geht
© msg Plaut
Georg Krause, CEO der msg Plaut AG: „Fakten von Fiktion unterscheiden.”
INDUSTRIAL TECHNOLOGY Redaktion 01.12.2023

Digitale Schwimmwesten, falls die Realität baden geht

Technologie, die den Menschen nach den Prinzipien des Digitalen Humanismus in den Mittelpunkt stellt, könnte Fake News entlarven und Schaden vermeiden.

Gastkommentar ••• Von Georg Krause

WIEN. Die Zeiten sind unruhig. Corona, Inflation, wirtschaftliche Krisen und Kriege um uns herum zehren an den Nerven eines jeden einzelnen von uns. Wir spüren es am eigenen Leib, dass sich die Welt verändert. Die Berichterstattung macht uns betroffen, emotional. Menschlich eben.

Diese Menschlichkeit ist es, die uns von Technologie unterscheidet. Und diese Menschlichkeit ist es, die uns verwundbar macht. Als Mensch, als Gesellschaft. Denn von jedem Artikel in den Tageszeitungen, von jedem Post auf Facebook, von jedem Bild auf Instagram werden wir beeinflusst. Beeinflusst in unserer Wahrnehmung der Welt, in unseren Meinungen. Ob wir wollen oder nicht.

Technologie treibt Fake News

Was uns jedoch immer schwerer fällt, ist Fakten von Fiktion zu unterscheiden. So entpuppten sich zuletzt Bilder von Verhaftungen eines ehemaligen Präsidenten oder einem brennenden Pentagon als ebenso falsch wie ganze, von künstlicher Intelligenz getriebene Nachrichten-Websites, die teilweise als geklonte Varianten renommierter internationaler Tageszeitungen auftreten.

Die Schuld, echte News von falschen nicht unterschieden zu können, beim Menschen allein zu sehen, greift zu kurz. Speziell in der schnelllebigen Welt von heute. Fake News werden mit Technologie erstellt, über Technologie geteilt und verbreitet. Die großen Social-Media-Plattformen dieser Welt haben sich mit ihren Algorithmen und ihrem „Reward-System” in Form von Likes und Shares als wahre Katalysatoren dieses Trends erwiesen. Die Folge: Es werden Echokammern der Unwahrheit gezüchtet.

Folgen mit großer Wirkung

Die Folgen können fatal sein. Wenn Prominente wie Armin Assinger oder Armin Wolf Anlegerinnen und Anleger ohne ihr Wissen als Werbe-Testimonials in dubiose Finanzierungsgeschäfte hineinziehen, ist das nicht nur ein Angriff auf das Persönlichkeitsrecht sowie das Image der Prominenten. Auch der wirtschaftliche Schaden beim Einzelnen, der auf so etwas hereinfällt, kann beträchtlich ausfallen.

Eine Studie der Universität Baltimore hat diese Auswirkungen 2019 untersucht und schätzt, dass 2019 weltweit mindestens 78 Mrd. US-Dollar Schaden durch Fake News entstanden ist – rund die Hälfte davon mit Bezug auf Börsenverluste und Aktienvolatilität bei betroffenen Unternehmen.
Was zudem in Gefahr ist, ist der menschliche Zusammenhalt. Fake News untergraben unsere Gesellschaft, unser Zusammenleben, sie verschieben das Weltbild. Fake News sind also keine Lappalie, kein kleines Verbiegen der Wahrheit, über die wir einfach hinwegsehen können. Fake News müssen als das enttarnt werden, was sie sind: Lügen. Eingesetzt, um Meinungen zu beeinflussen, eingesetzt für Propaganda, eingesetzt, um Menschen zu verführen.

Der Mensch im Mittelpunkt

Was wir vor allem brauchen, ist eine Hilfestellung für den Menschen. In Form von Kennzeichnungen, Gütesiegeln und ähnlichem, das den Wahrheitsgehalt einer Nachricht verifiziert. Oder in Form von Medienbildung sowie breite Aufklärung über die Gefahren in digitalen Welten – je früher dies beginnt, beispielsweise in Kindergärten und Schulen, desto besser. Fact-Checking-Initiativen und -Plattformen wie Mimikama sind zudem eine wichtige Stütze.

Um der Flut an Falschinformation aber wirklich Herr zu werden, braucht es Technologie. Technologie, die uns unterstützt, die von Technologie erstellten Deep Fakes und falschen Nachrichten zu entlarven. Technologie, die nach den Prinzipien des digitalen Humanismus und nach den Werten harmonischen Zusammenlebens kompromisslos zum Nutzen des Menschen gestaltet ist.
Denn wenn die Realität untergeht, braucht es solch digitale Schwimmwesten, die uns über Wasser halten.

BEWERTEN SIE DIESEN ARTIKEL

TEILEN SIE DIESEN ARTIKEL