MARKETING & MEDIA
Sexismus in sozialen Medien automatisch erkennen © Pexels
© Pexels

Redaktion 04.08.2021

Sexismus in sozialen Medien automatisch erkennen

Forscher der FH St. Pölten und des AIT haben Künstliche Intelligenz zur Identifikation von problematischen Inhalten entwickelt.

ST. PÖLTEN. Sexismus und seine Auswirkungen haben weitreichende Konsequenzen für die Gesellschaft. Dabei werden insbesondere Frauen, die in der Öffentlichkeit stehen, vor große Herausforderungen gestellt, wie aktuelle Studien zeigen. Soziale Medien treten hier als Beschleuniger auf und senken die Hemmschwellen für verbale Übergriffe.

"Sinnvollen Beitrag leisten"
Die FH St. Pölten und das AIT Austrian Institute of Technology haben im Rahmen des internationalen EXIST-Wettbewerbs (sEXism Identification in Social neTworks) eine Methode entwickelt, die die automatische Erkennung von sexistischen Äußerungen ermöglicht und dabei den dritten Platz belegt (aus 31 internationalen Teams). Das Tool basiert auf Methoden der künstlichen Intelligenz und nutzt Natural Language Processing (NLP) und Machine Learning, um Beiträge auf sozialen Medien semantisch zu untersuchen und zu klassifizieren.

„Ein zentrales Ziel unserer Forschung ist es, stets einen sinnvollen Beitrag zu leisten, um Probleme in unserer Gesellschaft zu lösen. Eine automatisierte Erkennung von sexistischen Äußerungen kann dazu beitragen, den Diskurs in den Sozialen Medien zu verbessern, Problembewusstsein zu stärken und Maßnahmen gegen diskriminierende Inhalte zu setzen“, so Matthias Zeppelzauer, Leiter der Forschungsgruppe Media Computing am Institut für Creative\Media/Technologies der FH St. Pölten.

Kategorisierung von Inhalten
Besonders herausfordernd bei der automatischen Erkennung von sexistischen Inhalten ist die Unterscheidung zwischen verschiedenen Kategorien von sexistischen Äußerungen und der Identifikation von ironischen oder sarkastischen Statements.

Die Datenbasis für die Klassifizierung lieferte der EXIST-Wettbewerb, der Teilnehmer*innen Postings auf den Plattformen „Twitter“ und „Gab“ zur Verfügung stellte. Dabei wurde nicht nur zwischen sexistischen und nicht sexistischen Inhalten unterschieden, sondern eine feine Kategorisierung sexistischer Inhalte vorgeschlagen. Die Postings, welche in englischer und spanischer Sprache vorlagen, wurden basierend auf deren Inhalt kategorisiert und in folgende Typen eingeteilt, die es automatisch zu unterscheiden galt: Ideologie und Ungleichheit, Stereotype und Herrschaft, Objektifizierung, sexuelle Gewalt, Misogynie und nicht-sexuelle Gewalt.

„Wichtig bei der Erkennung sexistischer Inhalte ist, dass wir nicht nur offensichtliche Formen von Sexismus automatisch identifizieren können, sondern auch subtile Formen und Anspielungen, die auf den ersten Blick übersehen werden könnten“, so Alexander Schindler, Leiter des Teams auf Seite des AIT.

Das Projektteam bestehend aus Studierenden als auch aus Forscher*innen des Center for Digital Safety & Security am AIT und der FH St. Pölten umfasste Mina Schütz, Jaqueline Böck, Daria Liakhovets, Djordje Slijepcevic, Armin Kirchknopf, Manuel Hecht, Johannes Bogensperger, Sven Schlarb, Alexander Schindler und Matthias Zeppelzauer. (red)

BEWERTEN SIE DIESEN ARTIKEL

TEILEN SIE DIESEN ARTIKEL