DOSSIERS
KI-gestützte personalisierte Medizin © Software Competence Center Hagenberg
© Software Competence Center Hagenberg

Redaktion 25.02.2022

KI-gestützte personalisierte Medizin

••• Von Lukas Fischer, Manuela Geiß und Bernhard A. Moser

Die personalisierte Medizin aus der Perspektive von Data Science und KI. Die fortschreitende Digitalisierung und KI haben das Potenzial, unser Gesundheitssystem durch eine verstärkte Patientenstratifizierung auf der Grundlage des individuellen biomedizinischen Profils und der Lebensumstände des Patienten zu verändern. Während die etablierte Medizin bei der Behandlung von Krankheiten aufgrund mangelnder Infor­mationen oft nur nach dem Prinzip „Versuch und Irrtum”¹ vorgehen kann, wird die personalisierte Medizin einen prinzipientreueren Ansatz ermöglichen, indem sie die in den Daten enthaltenen Anhaltspunkte nutzt. Auf diese Weise wird die geplante personalisierte Medizin Fehlbehandlungen reduzieren und somit Medikamententoxizität, schwerwiegende Nebenwirkungen, reaktive Behandlungen und Fehldiagnosen verhindern oder abmildern. Maßgeschneiderte diagnostische und therapeutische Strategien, die sich aus der Datenanalyse ergeben, werden sich nicht nur auf die Behandlung auswirken, sondern auch auf die Vorbeugung und auf proaktive Behandlungsschemata, was zu geringeren Kosten und einer Verbesserung der Lebensqualität führt.

In diesem Zusammenhang werden die Digitalisierung und KI tiefgreifende Auswirkungen auf die gesamte Kette der Informationsverarbeitung, über die Veredelungspyramide von den Rohdaten bis hin zum hochgradigen Wissensgewinn haben, insbesondere

• von der Datenerfassung (z.B. Einzelzell-Omics, die genomische, epigenomische und proteomische Daten liefert; Mikroskopiezellbilder; Röntgenbilder usw.),
• hin zur Datenfusion in verschiedenen Maßstäben (molekular, mikroskopisch) und Modi (aufgrund unterschiedlicher Sensortechniken, z.B. Fluoreszenz unter der visuellen Auflösung versus Dunkelfeldmikroskopie),
• ihrer Analyse (z.B. Zellkernsegmentierung),
• bis zur Erstellung einer endgültigen medizinischen Bewertung (z.B. Wahrscheinlichkeit eines bösartigen Tumors).

So ist die personalisierte Medizin in erster Linie eine Frage der Datenwissenschaft, die nicht darauf abzielt, neue Medikamente für Patienten zu entwickeln, sondern Individuen in Subpopulationen zu strukturieren, die sich in ihren Eigenschaften unterscheiden, z.B. in Bezug auf ihr Ansprechen auf ein Therapeutikum für ihre spezifische Krankheit oder in Bezug auf eine phänotypische Ausprägung.

Herausforderungen und ­künftige Forschung

Jede Stufe dieser Informationsverarbeitungskette birgt spezifische Herausforderungen in Bezug auf die Erleichterung der Datenanalyse durch maschinelles Lernen und schlussfolgernde Modelle, um den Wissensgewinn auf höherer Ebene aus dem Input auf niedrigerer Ebene zu synthetisieren.

Während die Modellsynthese auf höheren Ebenen eher mit der menschlichen Denkweise zusammenhängt, werden die Herausforderungen deutlicher, je höher wir in der Pyramide der Informationsverarbeitung aufsteigen. In diesem Zusammenhang besteht die Notwendigkeit, das sogenannte ­Narrow Machine Learning (ML) in Richtung Relational ML² ³ zu erweitern. Während Narrow ML darauf beschränkt ist, Modelle aus statistisch unabhängig und identisch verteilten (i.i.d.) Stichproben zu erstellen, zielt Relational ML darauf ab, auch kontextuelle Daten in Form von verknüpften Daten und Beziehungen zu berücksichtigen.
Auf der Ebene der Datensammlung, d.h. am unteren Ende der Pyramide, stehen wir vor allem vor Problemen im Zusammenhang mit dem Datennachweis, wie dem Phänomen der Datenverschiebung, z.B. aufgrund unterschiedlicher Lebensbedingungen oder der Genetik, dem Ungleichgewicht der verschiedenen Subpopulationen, dem Ungleichgewicht der Datenqualität oder der Verfügbarkeit von Metadaten, z.B. aufgrund der Kosten, die durch die zeitaufwendige Annotation entstehen. Die größere Datenmenge kann daher einen paradoxen Effekt haben, wenn die Datenstichprobe gegen die Annahme unabhängiger und identisch verteilter Daten verstößt. Eine Datensatzverschiebung kann bei der Durchführung von Teststrategien wie der Kreuz­validierung zu einer irreführenden Parameterabstimmung führen. Daher hängt die Entwicklung von Systemen des maschinellen Lernens weitgehend von den Fähigkeiten des Datenwissenschaftlers ab, solche Probleme zu untersuchen und zu lösen. Das ML-Teilgebiet des Transfer-Lernens befasst sich mit solchen Problemen, indem es das Wissen in der Quelldomäne nutzt, um die Leistung eines Algorithmus in einer verwandten (vermutlich verschobenen) Zieldomäne zu verbessern.
Am SCCH konzentrieren wir uns auf den gesamten Lebenszyklus der Software- und KI-Systementwicklung und befassen uns insbesondere mit (i) der Überwachung der Sicherheit, (ii) der KI-Modellierung, (iii) der Systementwicklung und (iv) Audit und Zertifizierung. Derzeit besteht das interdisziplinäre Team aus etwa 100 Forschern: Mathematikern, Daten- und Softwarewissenschaftlern.
Ein besonderer Schwerpunkt liegt auf datenschutzkonformem, übertragbarem und erklärbarem maschinellem und Deep Learning.


SCCH, www.scch.at, wurde 1999 von der Johannes Kepler Universität Linz (JKU) als österreichische außeruniversitäre RTO gegründet und nimmt am COMET-Programm der Österreichischen Forschungsförderungsgesellschaft (FFG) teil (https://www.ffg.at/comet).

BEWERTEN SIE DIESEN ARTIKEL

TEILEN SIE DIESEN ARTIKEL