Agency log #110: In der aktuellen Ausgabe diskutierte medianet-Verlagsleiter Bernhard Gily mit Andrea Laub, Head of Community & Reputation Management der Wiener Digitalagentur SPINNWERK GmbH, die Gretchenfrage vieler Kommunikationsabteilungen: Wie lässt sich künstliche Intelligenz im Community-Management nutzen, ohne Nähe, Vertrauen und Glaubwürdigkeit zu verspielen?

SPINNWERK GmbH, positioniert sich als disziplinübergreifende Digital-Marketing-Agentur und verweist darauf, seit 2010 unter Geschäftsführer Markus Nutz, KundKundinnen und Kunden aus unterschiedlichen Branchen wie etwa ADEG, Lagerhaus, Österreichisches Rotes Kreuz, WIFI, Volksbank Wien, Parlament, Cineplexx, Unilever-Marken (z.B. Magnum/Knorrn) in der „digitalen Welt“ zu begleiten.

Community Management als „Stimmungsbarometer“ – und als Handwerk
Andrea Laub
räumte gleich zu Beginn mit einer verbreiteten Verkürzung auf: Community-Management sei nicht einfach Social-Media-Management „mitgemeint“, sondern ein eigenständiges Leistungsfeld – bei SPINNWERK sogar mit eigener Abteilung. Der operative Anspruch zeigt sich auch im Takt: Betreuung täglich von 9 bis 22 Uhr, inklusive Wochenenden und Feiertagen.

Inhaltlich geht es aus ihrer Sicht um weit mehr als das Beantworten von Kommentaren und Nachrichten. Die Community fungiere als Stimmungsbarometer, liefere Hinweise darauf, welche Themen „ziehen“, wann Inhalte zu skalieren sind und wo Servicefälle entstehen. Der Job habe damit immer auch eine Customer-Service- und Krisen-Dimension: Wer früh erkennt, dass ein Thema kippt, kann Eskalationen abfangen, bevor sie sich zum Shitstorm verdichten.

Wo KI hilft: Fleißarbeit, Analyse, Variation
Beim KI-Einsatz plädierte Laub für einen nüchternen Blick auf konkrete Use-Cases. Sinnvoll sei KI vor allem dort, wo repetitive Prozesse Zeit fressen – etwa bei großen Mengen ähnlich gelagerter Bewertungen auf Plattformen, bei denen schnelle, konsistente Antworten gefordert sind. Auch bei Auswertungen wie Sentiment-Analysen könne KI unterstützen, indem sie große Volumina vorsortiert und Muster sichtbar macht; die menschliche Rolle verschiebe sich dann stärker in Richtung Kontrolle, Korrektur und Einordnung.

Ein zweites Feld ist Kreativität als „Sparring“. Laub beschrieb KI als Werkzeug, um Gedanken zu ordnen, Varianten zu generieren oder Betriebsblindheit zu durchbrechen – gerade, wenn Teams lange für denselben Kunden arbeiten und in Routine geraten. Der Mehrwert entstehe aber erst, wenn Menschen diese Vorschläge kuratieren, umformulieren und auf die Marke zuschneiden.

Wo KI riskant wird: fehlende emotionale Intelligenz – und „Low Effort“-Verdacht
Die zentrale Warnung des Talks betraf die emotionale Ebene. Community-Interaktionen seien soziale Beziehungen – und damit grundsätzlich emotional. KI könne Informationen sammeln und analysieren, aber sie habe (noch) keine belastbare emotionale Intelligenz: Ironie, Sarkasmus, feine Tonalitätswechsel oder gesellschaftspolitisch heikle Kontexte seien weiterhin typische Fehlerquellen.

Besonders brisant werde es, wenn KI falsch reagiert – etwa mit einer „positiven“ Standardantwort auf einen sarkastischen Kommentar. Die Folge könne unmittelbar sein: Vertrauensverlust, Reputationsschäden und der Eindruck von „low effort“. Laub betonte, dass Userinnen und User zunehmend sensibel sind und oft schon am Stil erkennen (oder zumindest vermuten), wenn eine Antwort „offensichtlich“ automatisiert wirkt. Dann sinkt die Interaktionsbereitschaft: Wer glaubt, mit einer Maschine zu sprechen, teilt weniger, fragt weniger nach – und die Community kühlt aus.

Hinzu kommt ein weiterer Punkt: Selbst kurze, menschlich verfasste Service-Antworten können heute als „KI“ missverstanden werden. Das zeigt, wie schmal der Grat geworden ist – und wie stark Authentizität nicht nur vom Inhalt, sondern von Tonalität, Kontext und Timing abhängt.

Krisenkommunikation bleibt Chefsache des Menschen
In Krisen, so Laub, sei die Maschine höchstens Radar – aber nicht Pilot. Ob ein Thema „kritisch“ ist, welche Formulierung deeskaliert und wann ein Eingriff erforderlich wird, sei eine menschliche Einschätzung, die Erfahrung, Kontextwissen und Empathie voraussetzt. Gerade weil „jede Krise emotional“ sei, brauche es Fingerspitzengefühl, das über reine Mustererkennung hinausgeht.

Daten, Transparenz, Einbindung der Kunden
Auch die Frage nach Datennutzung und Offenheit wurde im Gespräch gestreift. Laub verwies darauf, dass beim KI-Einsatz – etwa bei persona-basierten Arbeiten oder Tool-Integrationen – Zustimmung und saubere Prozesse nötig sind. Bei SPINNWERK würden im Community-Kontext „nur öffentlich zugängliche“ Daten (wie öffentliche Bewertungen) genutzt; die Kundinnen und Kunden seien eingebunden, wenn KI-Funktionen über Tools Teil des Workflows sind.

Ausblick: KI wird besser – der Mensch wird differenzierender
Für die nächsten Jahre erwartet Laub vor allem mehr KI-Funktionen, die Ton of Voice, bisherige Antworten, FAQs und Vorlagen stärker berücksichtigen und daraus präzisere Antwortvorschläge liefern. Gleichzeitig könne KI die emotionale Lage künftig besser analysieren als heute. Trotzdem bleibt ihre Kernthese: Je mehr Automatisierung den Markt flutet, desto stärker wird Handwerk zum Differenzierungsmerkmal – also echte Präsenz, schnelle Einordnung, individuelle Sprache und spürbare menschliche Haltung.

Weitere Videos