Um in der heutigen Welt konkurrieren und gewinnen zu können, gilt es, jederzeit zu optimieren. Dazu gehören auch Software-architekturen, die immer mehr Kernprozesse und -aspekte des Business tragen. Daten-Streaming-Plattformen sind ein essenzieller Bestandteil dieser modernen Architekturen.
Kai Wähner ist Field CTO und Global Technology Advisor bei Confluent. Wie gehen die Kunden von Confluent das Thema „Legacy-Modernisierung” an?
Wähner: „Eine zentrale Rolle bei der Modernisierung der IT-Landschaft spielen heutzutage Daten-Streaming-Plattformen, denn sie ermöglichen eine entkoppelte, flexible und somit zukunftssichere Architektur. Und sie erlauben sogar die Erweiterung bestehender Anwendungssysteme. So können Architekturen schrittweise – auch in der Cloud – modernisiert und Altdaten und -Systeme aus dem existierenden Data-Center bei Bedarf integriert werden, wobei der Kern der Plattform eine Echtzeitverarbeitung für transaktionale und analytische Anwendungsfälle ermöglicht.”
Kundeninformationen nutzen
Worauf basiert der Trend des „Daten-Streamings”?
Wähner: „Die Business-Welt befindet sich in ständiger Bewegung: Kunden- und Marktanforderungen verändern sich fortlaufend, und Unternehmen sind gezwungen, schnell zu reagieren. Ob Unternehmen nun Kundeninformationen nutzen, um die Customer Experience zu personalisieren und zu verbessern, oder ob sie Access und User Data auswerten: Sie müssen Datenmengen in Echtzeit verarbeiten, analysieren und über das gesamte Unternehmen hinweg verfügbar machen. Diesen Herausforderungen tritt Daten-Streaming entgegen. Als Status quo dafür und dem damit verbundenen Paradigma der ,Data in Motion' hat sich Apache Kafka etabliert. Confluent wurde von den ursprünglichen Entwicklern von Kafka gegründet und bietet mit seiner Cloud-native Daten-Streaming-Plattform viele Funktionen, die Innovation von IT-Landschaften rasch voranzutreiben.”
Daten müssen in Bewegung sein! Schon der Volksmund weiß: Viele Wege führen nach Rom. Das gilt auch für die Legacy-Modernisierung, für die es zahllose Mittel und Wege gibt. Der Weg mittels Daten-Streaming und der Aufbau eines Event Mesh ist vor allem aus zwei Gründen attraktiv: Erstens bietet er die Option, sämtliche Legacy-Systeme – seien sie noch so divers – in eine unternehmensweite IT-Strategie einzubeziehen und trotzdem ganz individuell mit den passenden Werkzeugen und dem eigenen Tempo zu modernisieren. Zweites muss die brisante Frage nach der Ablösung der Legacy-Systeme nicht vorab entschieden werden, sondern die Antwort kann in aller Ruhe und ohne Druck zu einem sinnvollen Zeitpunkt erfolgen – oder auch gar nicht!
Der Abschied vom Silo-Denken: Es geht um die Modernisierung von Datenarchitekturen. Die Herausforderung beim Einsatz sind also weniger deren technische Schulden, sondern vielmehr die veränderte Welt rund um diese Anwendungen herum. Das rührt daher, dass ohne Not an funktionierenden Abläufen nur sehr selten etwas geändert wird. Neue Herausforderungen, wie z.B. Self-Services im Kundendienst oder die Digitalisierung der Supply-Chains über die Firmengrenze hinaus, sind also nicht ohne Weiteres möglich.
Echtzeit-Datenpipeline
Confluent, gegründet von den Entwicklern von Apache Kafka, bietet die führende Streaming-Plattform, welche es Unternehmen ermöglicht, den Wert ihrer Daten zu maximieren. Die Plattform von Confluent erlaubt es, Daten aus isolierten Systemen in eine Echtzeit-Datenpipeline zu übertragen, wo sofort darauf reagiert werden kann. Mit diesem neuen Plattformparadigma transformieren branchenführende Unternehmen ihre Architekturen erfolgreich von Batch Processing zu Streaming, sowohl in unternehmensinternen als auch in Multi-Cloud-Umgebungen. Confluent verfügt über Hauptsitze in Mountain View und London und unterhält weltweit Niederlassungen.