Potsdam/Wien. Das explosionsartige Wachstum von Datenmengen stellt selbst neueste Hochleistungsverfahren zur Echtzeit-Analyse vor immer größere Herausforderungen. Das ergab eine Ende Februar stattgefundene Tagung von Informatikforschern am Hasso-Plattner-Institut (HPI) in Potsdam. 50 Experten aus Wissenschaft und Wirtschaft hatten sich beim zehnten Future SOC Lab getroffen, deutlich wurde: Blitzschnelle und flexible Big Data-Auswertungen mit der am HPI erforschten und mitentwickelten In-Memory-Technologie stoßen aufseiten der Hardware mittlerweile auf physikalische Grenzen.
Fahren statt Fliegen
„Echtzeit-Analysen immer größerer Datenmengen erfordern ganz neue Kniffe sowohl auf Hardware- als auch auf Software-Seite. Wir kümmern uns darum, das Potenzial der neuen Systeme auszureizen”, sagte HPI-Wissenschaftler Frank Feinbube. „Derzeit ist die Situation praktisch so, als säße ein Formel1-Pilot in einem Jet und fährt damit nur, statt abzuheben und rasant zu fliegen.”
Bessere Ausstattung
Logische Konsequenz sei es, dass die Hardware anders gebaut werden müsste, aber das sei schwierig, so der Wissenschaftler. Deshalb solle vorerst nach Wegen gesucht werden, wie entsprechende Soft- und Hardware optimal harmonieren könne. Anwendungsszenarien müssten zunächst einmal bis ins letzte Detail bedacht werden, um die Hardware- und Big Data-Management-Systeme bestmöglich anzupassen. So könnten beispielsweise im Zeichen von Industrie 4.0 Anwendungen entstehen, bei denen Lagerkapazitäten, Materiallieferung und Herstellung aufs Genaueste abgestimmt werden mit aktuellsten Rohstoffpreisen, Verkaufsmargen und anderen Optimierungsprozessen. Der nächste Future SOC Lab Day wird vom HPI am 4. November veranstaltet.