Leitartikel ••• Von Sabine Bretschneider
HOLPRIG. Es ist so weit: Das EU-Parlament hat seine Position zum AI Act am Mittwoch festgelegt. Man will dem Gespenst der Künstlichen Intelligenz per Regulierung beikommen, bevor es die Weltherrschaft übernimmt. Der Act verbietet etwa KI-Systeme mit „inakzeptablen Risikostufen”. Dazu zählen Systeme, die zum Social Scoring, der Einstufung anhand von Sozialverhalten oder persönlicher Merkmale, eingesetzt werden können. Dafür gibt es Vorbilder: 2014 hatte die Volksrepublik China den Aufbau eines sozialen Bonitäts-Systems gestartet, mit dem Ziel, „die Ehrlichkeit und Qualität der Nation” zu steigern sowie zu einer „harmonischen sozialistischen Gesellschaft” beizutragen. Seit ein paar Jahren wird es ausgerollt. Es gibt Punkte für wünschenswertes bzw. Abzüge für negatives Verhalten und reicht von der Bonitätskontrolle, über die Meinungsäußerung in Sozialen Medien bis zur Beobachtung des Verhaltens bei roten Ampelphasen.
Zurück zur EU-Regulierung: KI-Systeme, „die Wähler und Wahlergebnisse beeinflussen”, sollen auf die Hochrisiko-Liste. Ein willkürlich konstruiertes Beispiel: Eine Werbeagentur ließ kürzlich in Kooperation mit dem KFV und mithilfe von KI die Stimme einer durch einen Raser getöteten Salzburgerin „wiederauferstehen”. Sie warnt in berührenden Werbespots vor den Gefahren des Schnellfahrens. Auch Verkehrsministerin Gewessler will Raser in die Schranken weisen – auch diese Kampagne soll dafür sensibilisieren. Wären KI-produzierte ministeriale Spots eine politische Beeinflussung der Wähler? Nein, weil keine künstlich-intelligente, systematische soziodemografische Ansteuerung von Zielgruppen passiert. Aber reicht es tatsächlich aus, wie im AI Act vorgesehen, die Nutzung sensibler Daten für politisches Targeting einzuschränken? Und: Was ist überhaupt „politische Werbung” …?
Der unregulierte Einsatz von KI rüttelt an den Grundfesten der Demokratie, andererseits werden die Regulierer beschuldigt werden, am selben Fundament zu sägen. Es geht ans Eingemachte.