Jede Postsendung erzeugt viele Ereignisse
© Österreichische Post AG/Werner Streitfelder
DOSSIERS Redaktion 21.10.2022

Jede Postsendung erzeugt viele Ereignisse

Die Post wappnet sich mit IT für zweistellige Wachstumsraten pro Jahr. Im Vorjahr wurden 184 Millionen Pakete versandt.

Beinahe 200 Millionen Pakete pro Jahr in Österreich, Milliarden an Briefen und Werbesendungen – natürlich geht bei diesen Volumina auch bei der Österreichischen Post nichts mehr ohne moderne IT. Mit der „Digitalen Logistik Plattform” hat die Post ein Programm gestartet, das die IT-Kernsysteme der Logistik zukunftsfit machen möchte. Michael Niessl, Leiter der Anwendungsentwicklung Logistiksysteme, erklärt die Problemstellung, vor der sein Team stand und wie mit Event-Streaming ein Paradigmenwechsel eingeleitet wurde.

Event-getriebenes Geschäft

„Die Post hat eine weitreichende IT-Landschaft mit sehr vielen Systemen, die ihren Job an sich verlässlich erledigen. Das Geschäft der Post ist Event-getrieben: Alle Ereignisse im Lebenszyklus einer Sendung, wie etwa die Annahme in einer Filiale, die Sortierung oder die Zustellung, sind katalogisiert; jedes Event hat einen Code und eine Kategorie. Auch Endkunden sind diese Events geläufig; sie werden im Sendungsverlauf auf der Website oder in der App angezeigt”, umreißt Niessl. „Alles ist also Event-getrieben, die Systeme sind es allerdings nicht.”

Traditionell wurden bei der Post Pakete sowie Brief- und Werbepost separat behandelt. Diese Tradition spiegelte sich auch heute noch in den Systemen wider. Während das Briefgeschäft und die Werbepost jedoch auch international leicht rückläufig sind, steigt das Volumen des Paketgeschäfts stetig an – die Post verzeichnet jedes Jahr zweistellige Wachstumsraten. Niessl: „Bestehende Systeme sind mehrere Jahre alt und bewähren sich täglich unter großer Last. Wir haben zum Beispiel zu Beginn der Entwicklung der Digitalen Logistik Plattform im bestehenden Kernsystem etwas mehr als 3,1 Milliarden Paketsendungsevents pro Jahr verarbeitet. Uns stellte sich die Frage, wie viel man durch Optimierung noch aus diesen Systemen herausholen kann. Etwa wäre ein Faktor von fünf schon eine gewagte Annahme. Das würde eine hypothetische Kapazität von etwa 15,5 Milliarden Events bedeuten. Dem mussten wir eine Annahme über die weitere Entwicklung der Anforderungen an die Systeme gegenüberstellen.”

Lineares Wachstum

„Im Jahr 2020 hatten wir etwa 166 Millionen Pakete, 2021 waren es schon 184 Millionen Pakete. Wir können hier von einem zwar starken, aber linearen Wachstum ausgehen, mit dem die Systeme mitwachsen könnten. Durch anhaltende digitale Transformation werden mehr und mehr Prozesse digitalisiert; Aufgaben, die in der Vergangenheit manuell erfolgten, werden jetzt vollautomatisiert erledigt.” Unter dem Strich bleibt, dass zum linearen Wachstum der Sendungsvolumina ein exponentielles Wachstum der Datenpunkte pro Sendung kommt.

Niessls Fazit nach der Analyse: „Wir müssen die Grundlage für ein System schaffen, das mit einer solchen Art von Wachstum umgehen kann.”
Die Vision von Niessl, seinem Team und BearingPoint ging allerdings noch weiter. „Neben der bloßen Anzahl der verarbeitbaren Events – wir haben uns als Ziel gesetzt, ein System zu schaffen, das bei 100 Milliarden Events nicht ins Schwitzen kommt – waren uns noch andere Aspekte wichtig.”

Limits bei Monolithen

„Wir haben traditionell eine monolithische Architektur, riesige Datenbanken, um die herum verschiedene Kernservices aufgebaut sind. Alle bestehenden und neuen Applikationen benötigen etwas von diesen Monolithen. Alle zusätzlichen Funktionen und Fähigkeiten müssen in diese Brocken integriert werden. Diese Monolithen halten unser Business mit dem aktuellen Wachstum am Laufen und funktionieren verlässlich”, erklärt Niessl und schränkt ein: „Aber es gibt Limitationen, die wir in den vergangenen Jahren zu spüren bekommen haben. Neben der reinen technischen Skalierung ist es vor allem organisatorisch schwierig: Neue Entwickler auf eine große ‚Legacy'-Codebasis onzuboarden, ist eine Herausforderung; einem bestehenden Team ein zweites zur Seite zu stellen, führt nur dazu, dass sich die beiden Teams gegenseitig behindern. Also wird ein Team, das einen Monolithen wartet, langfristig zum Bottleneck.”

Digitale Logistikplattform

Daher war beim Start der Digitalen Logistik Plattform klar: Im Kern war die Basis für eine moderne, Event-getriebene Architektur zu schaffen, die frei ist von monolithischen Mindsets und eine Entkoppelung der Applikationen erlaubt. Damit reduzieren sich die Abhängigkeiten von Kernsystemen, und neue Entwicklungen, neue Features haben eine kürzere „Time to market”, und durch die ständige Kommunikation der Events ist die Gefahr von Datensilos gebannt. Klar war ebenso, dass die neue Plattform cloud-only oder zumindest cloud-first entwickelt werden sollte. „Die dritte Vorgabe war, dass ein neues System elastisch sein muss, also in beide Richtungen skalierbar, denn unser Geschäft ist sehr saisonal. Das waren die High Level-Zielsetzungen zum Start dieses Projekts”, so Niessl.

Aufgabe gemeistert

Die Übung gelang bravourös – mit einem Team, das aus einigen bestehenden, aber auch einigen neuen Mitarbeitern ohne spezifisches Domänenwissen bestand. Innerhalb eines Jahres wurde ein Event-getriebenes IT-System aus dem Boden gestampft, das alle Punkte der ursprünglichen Zielsetzung erfüllt. Als Teil des Projekts ging der Entwicklung eine umfangreiche Technologie-Evaluierung voraus, die zu Apache Kafka auf Confluent als neuen Technologie-Stack geführt hat. Von Beginn an wurde das Projekt von einem BearingPoint Consultant, als Experte für Event-getriebene Systeme und insbesondere Kafka, begleitet. „Die ersten Applikationen laufen auf dem neuen System bereits bestens und es kommen ständig Neuerungen hinzu”, freut sich Niessl über die ersten Erfolge.

BEWERTEN SIE DIESEN ARTIKEL

TEILEN SIE DIESEN ARTIKEL