KI diagnostiziert besser als Notaufnahme-Ärzte – Harvard-Studie im Fachjournal Science

Von: Paul Schmitt | heute, 03:16

OpenAIs Sprachmodell o1 hat in einer Studie der Harvard Medical School Ärzte bei der Erstdiagnose in der Notaufnahme übertroffen. Beim Triage – dem Schritt, an dem am wenigsten Informationen vorliegen – erreichte das Modell eine Diagnosegenauigkeit von 67 %, zwei erfahrene Internisten kamen auf 55 % bzw. 50 %. Die Ergebnisse wurden im Fachjournal Science veröffentlicht.

Die Studie

Das Forschungsteam der Harvard Medical School und des Beth Israel Deaconess Medical Center testete die Modelle o1 und 4o anhand von 76 realen Patientenfällen aus der Notaufnahme. Dabei arbeiteten Modelle und Ärzte mit denselben unveränderten elektronischen Patientenakten – keine Vorauswahl, keine Aufbereitung der Daten. Zwei weitere Ärzte bewerteten anschließend die Diagnosen, ohne zu wissen, welche vom Menschen und welche vom Modell stammten. o1 schnitt auf jeder Stufe des diagnostischen Prozesses mindestens gleich gut ab wie die Ärzte, beim Ersttriage deutlich besser. Besonders auffällig war die Leistung bei seltenen Erkrankungen und bei Entscheidungen zur Behandlung – etwa beim Einsatz von Antibiotika oder bei Fragen zur palliativen Versorgung.

Die Studienautoren betonen ausdrücklich: KI soll hier kein eigenständiges klinisches Urteil ersetzen, sondern als Entscheidungshilfe dienen. Prospektive Studien unter realen Bedingungen seien zwingend notwendig, bevor ein breiter Einsatz möglich ist.

Der Regulierungsrahmen in der EU

Für den deutschen Markt – und die gesamte EU – ist der rechtliche Rahmen entscheidend. Der EU AI Act stuft KI-Systeme zur medizinischen Diagnoseunterstützung als hochriskant ein. Nach dem sogenannten Digital Omnibus wurde die Compliance-Frist für integrierte Medizinprodukte auf August 2028 verschoben, wie MedDeviceGuide dokumentiert. Das gibt Herstellern mehr Zeit – aber auch mehr Pflichten: Wer ein KI-gestütztes Diagnosesystem in den Verkehr bringen will, muss sowohl die Medizinprodukteverordnung (MDR) als auch den AI Act erfüllen. Benannte Stellen (Notified Bodies) sind derzeit personell kaum in der Lage, den erwarteten Ansturm an Zertifizierungsanträgen zu bewältigen.

Den regulatorischen Zeitplan des AI Act hat die EU-Kommission klar festgelegt – die praktische Umsetzung in Deutschland und Österreich bleibt jedoch eine offene Frage. Hierzulande gibt es bislang keine vergleichbaren Pilotprojekte, die o1 oder ähnliche Modelle klinisch erproben.

Ungeklärte Haftung

Ein zentrales Problem bleibt ungelöst: Wer haftet, wenn eine KI-gestützte Diagnose falsch ist? Die Harvard-Studie adressiert diese Frage nicht. Weder ein Haftungsrahmen noch eine Malpractice-Versicherung für KI-Empfehlungen ist bisher definiert – weder in den USA noch in der EU. Solange das unklar ist, bleibt der Arzt als Letztverantwortlicher unersetzlich.