"Mit diesem Plan wird die Justiz teilprivatisiert"
© Cedric Büchling
MARKETING & MEDIA Redaktion 27.05.2022

"Mit diesem Plan wird die Justiz teilprivatisiert"

Polit-Aktivist und IT-Unternehmer Maurice Conrad übt heftige Kritik an den EU-Plänen, Chats wahllos zu überwachen.

••• Von Dinko Fejzuli und Petra Stückler

WIEN. Die EU möchte Missbrauchsdarstellungen von Kindern im Internet bekämpfen. Geht es nach der EU-Kommission, sollen Betreiber von Messenger-Apps künftig Nachrichten nach kinderpornografischen Inhalten durchleuchten – und melden. Zudem soll ein unabhängiges EU-Zentrum eingerichtet werden, das unter anderem entsprechende Technologie bereitstellen soll.

Obwohl hier künftig wahllos in einer Art Massenüberwachung sämtliche private Kommunikation von Bürgerinnen und Bürgern ohne Anlass oder konkreten Verdacht gescreent werden soll, blieb, zumindest bisher, der öffentliche Aufschrei überschaubar. Experten beobachten die Pläne jedoch mit kritischem Auge.
medianet bat den Buchautor, Friday-for-Future-Aktivisten, Ex-Politiker, Informatikstudenten und IT-Unternehmer Maurice Conrad – einen großen Kritiker der Pläne – zum Gespräch über die technischen Hintergründe und Machbarkeiten dieses Vorhabens, über die großen Gefahren und letztlich über die Definition von digitaler Freiheit, die uns alle angeht.

medianet: Herr Conrad, wie soll künftig der von der EU angestrebte, flächendeckende Scan unserer Chats denn technisch überhaupt funktionieren?
Maurice Conrad: Es gibt zwei Möglichkeiten, die man in diesem Zusammenhang umsetzen könnte. Einerseits kann man eine ‚backdoor' in die Ende zu Ende-Verschlüsselung einbauen. So zwingt man die Hersteller dazu, eine Verschlüsselung anzuwenden, die dann am Ende von Ermittlungsbehörden entschlüsselt werden kann. Damit würde diese Ende zu Ende-Verschlüsselung de facto nicht mehr existieren.

medianet:
Und wie soll die Überwachung technisch umgesetzt werden?
Conrad: Ich bin kein Kryptograf, aber im Bereich der Verschlüsselungsmethoden gibt es eben Möglichkeiten, diesen ­Schlüssel herauszufinden. Das wird die EU wohl aber nicht machen. Es wird eher auf die sogenannten Neural Hashes, das ist eine Foto-Analyse-Software, hinauslaufen. Apple hat bereits vor zwei Jahren in Eigenregie damit begonnen, Neural Hashes als Tool gegen Kinderpornografie in ihrer Software einzubauen, um gegen Kindesmissbrauch vorzugehen.

medianet: Wie funktionieren diese Neural Hashes?
Conrad: Ein Hash hat in der Kryptografie eine Art eindeutiger Fingerabdruck eines Textes oder Bildes zu sein. Jede noch so kleine Änderung am Bild oder Text sorgt dafür, dass sich der gesamte Hash komplett verändert. Rückschlüsse vom Hash auf den Inhalt können ebenso ausgeschlossen werden wie eine Ähnlichkeit von zwei Hashes, weil die zugrunde liegenden Daten ähnlich sind.

Die sogenannten Neural Hashes sind da genau anders. Sie haben das Ziel, Fingerabdrücke zu erzeugen, die sich ähneln, wenn die Inhalte sich ähneln. Sie sind also nicht wirklich ­Hashes, sondern versuchen, über eine Künstliche Intelligenz und ein neuronales Netzwerk Inhalte als Inhalte zu identifi­zieren.

medianet: Und sie kritisieren hier nun, dass diese Technologie zu fehleranfällig ist?
Conrad: Tatsächlich ist diese Technik extrem ungenau, fehleranfällig und maximal experimentell. Dieses Verfahren öffnet eine riesige Tür zu den potenziellen Möglichkeiten, die Staaten nutzen, um etwa Kriminalität zu bekämpfen. Durch die Fehleranfälligkeit führt das aber dazu, das ganz viele Sachen bei den Ermittlungsbehörden auf dem Tisch landen, die gar nicht strafbar sind.

medianet:
Womit völlig Unschuldige ins Visier der Strafverfolgungsbehörden geraten oder wegen Dingen, nach denen vorab gar nicht ‚gescannt' wurde, die aber eine Art digitaler Beifang sind, oder Bilder durch die Software überhaupt fehlinterpretiert werden?
Conrad: Richtig, denn das Hauptproblem ist, dass Behörden bzw. Ermittler Daten, die vorhanden sind oder eben durch so einen anlasslosen Scan anfallen, immer nutzen bzw. auswerten. So werden über den Zweck der gedachten Überwachung hinaus Dinge gemacht, für die diese Daten gar nicht gedacht waren.

Das zweite große Problem ist – unabhängig von der Unverhältnismäßigkeit –, dass es die Justiz zum Teil privatisiert. Denn diese Algorithmen werden nicht von der EU entwickelt. Öffentliche Institutionen entwickeln keine gute Software, und das wissen sie auch und so übergibt man das gerne an private Unternehmen, die damit plötzlich Teil unserer Strafverfolgungsbehörden werden, ohne den gleichen rechtsstaatlichen Kontrollen zu unterliegen wie staatliche Institutionen und am Ende die Strafverfolgung letztlich einer Software überlassen wird, über die der Staat keine Kontrolle hat. Das wäre ein Dammbruch.

medianet: Kennt so eine Software dann noch so etwas wie eine Unschuldsvermutung?
Conrad: Genau das ist das Problem, denn auch wenn es am Ende nicht zu einer Verurteilung führt, werden Menschen überwacht, es gibt Hausdurchsuchungen und aufgrund der Fehleranfälligkeit gerate viele, die nichts verbrochen haben, ins Visier der Ermittlungsbehörden.

medianet:
All das, was Sie erzählen, klingt stark nach dem, was in China schon längst Alltag ist. Droht in der EU ein ähnliches Szenario?
Conrad: Ich habe großes Vertrauen in den Rechtsstaat und in den Europäischen Gerichtshof. Wir haben ein anderes politisches System; das heißt aber nicht, dass man oberflächlich trotzdem in die ähnliche Richtung geht.

Was in China passiert, wird in Europa immer groß kommentiert, und man sagt: ‚Oh Gott, die haben eine Massenüberwachung.' Nur: In abgeschwächter Form entsteht das bei uns langsam auch, bleibt aber unbeachtet. So werden Schritt für Schritt die Grenzen des Machbaren verschoben.
Und wer der Meinung ist, dass ich übertreibe, soll sich in Erinnerung rufen, dass in Deutschland in den 80ern noch diskutiert wurde, ob man – wegen des Datenschutzes – Volkszählungen überhaupt durchführen soll. Damals ein Tabu, scheint das aus heutiger Sicht heute völlig harmlos.


medianet:
Was könnte uns hier am Ende drohen?
Conrad: Das Problem ist, dass sich die Grenzen dessen, was man für gerade noch akzeptabel erachtet, stetig verschieben, und die Folge ist, dass unsere Privatsphäre verschwindet.

Als Austausch bekommen wir eine gefühlte Sicherheit, die sehr trügerisch ist, und langfristig verschwindet die demokratische Willensbildung.

medianet: Warum macht die Politik hier mit?
Conrad: Weil es Unternehmen gibt, die mittels Technologie totale Sicherheit versprechen, und die Politik ist häufig dazu geneigt, diesem Versprechen zu verfallen. Die Politik sagt sich: Wir können unsere Bevölkerung beruhigen, indem wir ihr Technologien geben, um sich sicherer zu fühlen. Dass man dabei viel aufgibt, was die Gesellschaft ausmacht, wird in Kauf genommen, und das halte ich für wirklich gefährlich.

medianet:
Ist es auch eine Frage der Generationen, wie sehr der Eingriff in die eigene Privatsphäre akzeptiert wird? Die Jungen teilen Daten und Infos bekanntlich sorgloser …
Conrad: Es ist schon ein Unterschied, ob ich einigermaßen bewusst in die Öffentlichkeit trete, zum Beispiel in Sozialen Netzwerken, und das kann man auch kritisch sehen. Es ist aber etwas anderes, wenn anlasslos und gegen meinen Willen meine Kommunikation überwacht wird.

medianet:
Frage zum Schluss: Bei dieser Tragweite der Idee: Warum blieb der große öffentliche Aufschrei hier aus?
Conrad: Ich finde er war größer als gedacht, denn: Für viele Menschen ist das Thema wahnsinnig abstrakt. Der große Aufschrei ist bei anderen politischen Themen ja auch nicht vorhanden, beispielsweise bei der Klimakrise. Die Welt ist am Brennen. Die Menschen, die in der Beratung im Prozess involviert sind, müssen achtsam sein. Die müssen der EU sagen, was sie da verbocken. Ich hoffe, dass das Ganze scheitert und es gar nicht passiert.

BEWERTEN SIE DIESEN ARTIKEL

TEILEN SIE DIESEN ARTIKEL