top of page

Krankheitsprognosen per KI: Zwischen medizinischem Fortschritt und Datenverzerrung

Aktualisiert: vor 5 Tagen

ree

In Anlehnung an die Funktionsweise eines LLM hat das EMBL zusammen mit dem DKFZ und der Universität Kopenhagen ein KI-Modell entwickelt, das Krankheiten prognostizieren kann, bis zu 20 Jahre im Voraus. Zumindest bei „klassischen“ Krankheitsbildern wie Herzinfarkten und vielen Krebsarten. Bei Erkrankungen, die stark von unvorhersehbaren Lebensereignissen abhängen, etwa Komplikationen in der Schwangerschaft oder psychischen Leiden, tut sich das Modell noch schwer.


Trainiert wurde Delphi-2M, so der Name des Modells, auf rund 400.000 Datensätzen der UK Biobank. Anschließend wurde die Inferenz erfolgreich mit dem dänischen Patientenregister verprobt, das etwa 1,9 Millionen Datensätze umfasst. 


In den Medien wird die KI bereits als medizinischer Durchbruch oder gar Revolution gefeiert. Business Punk denkt sogar schon darüber nach, wie sich die Entwicklung positiv auf die Content-Strategien von Gesundheitsanbietern auswirken könnte.


Schaut man jedoch genauer hin, beschleicht einen das Gefühl, Pandora, Faust, und Mary Shelley hätten gemeinsame Sache gemacht.


Da Delphi-2M auf denselben Prinzipien wie LLMs basiert, können Halluzinationen nicht ausgeschlossen werden. Googles Healthcare-AI Med-Gemini machte es schon vor und erfand kurzerhand neue Körperteile.


Viel bedenklicher ist aber, wie viele Biases in den Trainingsdaten stecken.



Zunächst das Positive: Mit 54 % weiblichen und 46 % männlichen Patient:innen liegt immerhin kein klarer Gender-Bias vor. Aber der Rest?


 🧬 Alle Teilnehmer:innen sind zwischen 40 und 69 Jahren alt, der größte Anteil (42 %) liegt in der Gruppe der 60- bis 69-Jährigen.


🧬 94 % sind weiß-britischer Abstammung.


🧬 88 % leben in England.


🧬 60 bis 70 % gehören zur gehobenen Mittelschicht.


🧬 Weniger Raucher:innen als in der Gesamtbevölkerung.


🧬 Weniger Alkoholkonsum als im Durchschnitt.


Damit bedient Delphi-2M eine ganze Reihe von unterschiedlichen Biases:


🧠 Age bias


🧠 Ethnicity bias


🧠 Geographic bias


🧠 Socioeconomic bias


🧠 Health volunteer bias


🧠 Lifestyle bias


🧠 Self-selection bias


Mit viel gutem Willen ist die KI vielleicht ein spannender Proof of Concept – aber sicher kein medizinischer Durchbruch oder gar eine Revolution. Es ist eher ein Paradebeispiel dafür, wie wichtig es ist, sich ernsthaft mit den Biases auseinanderzusetzen, die durch Trainingsdaten entstehen.


Das fügt sich hervorragend an meinen vorherigen Post hier auf LinkedIn an, in dem ich über Versicherer und KI geschrieben habe. Krankenversicherungen würden sich wohl alle zehn Finger nach einer solchen KI lecken. Vordergründig klingt es gerecht, wenn sich Versicherungsbeiträge nach der tatsächlichen Gesundheitsgeschichte und dem individuellen Risiko richten würden.


Aber dafür müsste die Datenbasis vollständig und neutral sein.


Also wirklich neutral und nicht das, was ein gewisser orangefarbener Golfball unter „neutraler KI“ versteht.


Dieser Beitrag wurde hier auch auf LinkedIn veröffentlicht

Kommentare


bottom of page