Leitartikel ••• Von Sabine Bretschneider
SYSTEMFEHLER. Neues Jahr, neue KI-Kontroversen: Mit ChatGPT Health schlägt OpenAI ein neues Kapitel digital gestützten Wellbeings auf. Nutzer können ihre medizinischen Unterlagen, Sport- und Gesundheitsdaten jetzt direkt mit ChatGPT verknüpfen, um bessere Einblicke in die eigene physische Verfassung zu erhalten – verständlich, kontextualisiert, alltagsnah. Die neue Funktion, derzeit im Testbetrieb, lässt sich u.a. mit Apple Health, MyFitnessPal und Function integrieren. Nachfrage ist vorhanden, stellen doch 40 Mio. Nutzer dem Chat-Buddy täglich Gesundheitsfragen. Laut OpenAI soll ChatGPT Health helfen, Untersuchungsergebnisse besser zu verstehen, Arzttermine vorzubereiten und sich im Versicherungswesen zu orientieren. An der Entwicklung arbeiteten 260 Ärzte aus 60 Ländern mit. Das ist grundsätzlich gut und recht. Datenschutzrechtlich ist es ein Alptraum.
OpenAI versichert zwar, die Daten nicht zum Training der Modelle zu verwenden. Doch wer reale Gesundheitsdaten mit KI-gestützter Interaktion verbindet, erhält äußerst tiefe Einblicke in Bedürfnisse, Risiken und Verhaltensmuster. Das ist kein nettes Nebenprodukt, das ist ein strategischer Kern des neuen Produkts.
In den USA bewegt sich OpenAI in einem regulatorischen Schutzraum: Solange die Software „nur informiert“, greift weder die Aufsicht der FDA noch der strenge Gesundheitsdatenschutz nach HIPAA. Aus europäischer Sicht ist es sehr heikel. Gesundheitsdaten zählen in der DSGVO zu den besonders schützenswerten Kategorien personenbezogener Daten. Ihre Verarbeitung ist nur unter engsten Voraussetzungen zulässig.
Andererseits ist es jetzt schon so, dass die am Smartphone liebevoll gesammelten Gesundheitsdaten via App in aller Herren Länder und in vieler Firmen Analyseabteilungen fließen … mit nicht absehbaren Konsequenzen. Und wer auf die Fünf-Minuten-Audienz beim Kassenarzt angewiesen ist, schätzt sicherlich den plauder- und auskunftsfreudigen Chat-Doktor. Your choice.
