Doktor, Quacksalber, Scharlatan. Die riskanten Heilsversprechen der Künstlichen Intelligenz im Medizinsektor

Minuten können über Leben und Tod entscheiden. Ein neues KI-System, das 48 Stunden früher als bisher Nierenversagen bei Patienten vorhersagen kann, ist wirklich von großem Wert, menschendienlich, nicht nur nachrichtlich betrachtet. Was aber, wenn das alles noch gar nicht ausgemacht ist?

Ziffer 14 des Deutschen Pressekodex regelt die Medizinberichterstattung

Bei Berichten über medizinische Themen ist eine unangemessen sensationelle Darstellung zu vermeiden, die unbegründete Befürchtungen oder Hoffnungen beim Leser erwecken könnte. Forschungsergebnisse, die sich in einem frühen Stadium befinden, sollten nicht als abgeschlossen oder nahezu abgeschlossen dargestellt werden.

Michael Moorstedt hat zünftig journalistische Distanz gewahrt. Er hat in der Süddeutschen Zeitung vom 11. August 2019 das gemacht, was Qualitätsjournalismus tun soll, nämlich die Fakten

  • zu recherchieren
  • sauber aufzubereiten
  • zu analysieren
  • mit Hintergrundinformationen zu ergänzen
  • in einem größeren Kontext einzuordnen.

Bei Lichte betrachtet, hält die Geschichte – noch –  nicht ganz, was sie verspricht. Moorstedt machte darauf aufmerksam, dass hier Korrelationen mit Kausalitäten gleichgesetzt wurden und eine nicht unproblematischer Datensatz als Basis diente. Andererseits war das den ForscherInnen bewusst:

Although we demonstrate a model that is trained and evaluated on a clinically representative set of patients from the entire US Department of Veterans Affairs healthcare system, this demographic is not representative of the global population. […] Validating the predictive performance of the proposed system on a general population would require training and evaluating the model on additional representative datasets.

Michael Moorstedts Kritik zielt gegen die Unart, „schlagzeilenträchtige Forschungsdurchbrüche“ zu verkünden. Ob es hier darum ging, dem eigenen „Börsengewinnen“ auf die Sprünge zu helfen oder einfach dem nächsten Forschungsauftrag, dem nächsten Zitat, dem nächsten Like, sei dahingestellt.

Fakt ist: Das Phänomen des Zuspitzens ist nicht neu. Es betrifft längst nicht nur KI-getriebene Medizin, denken wir an Beispiele zu alternativen Heilmethoden wie Homöopathie oder Akkupunktur. Es betrifft auch alle anderen denkbaren Branchen. Mundus vult discipi, oder etwa nicht? Nein, will sie nicht. Oder wenn, dann zahlen alle einen sehr hohen Preis dafür. In der Politikverdrossenheit lässt sich das grade in Echtzeit beobachten.

Warum der KI-getriebenen Medizin vorschnelle Heilsversprechen schaden

Der Zuwachs an Wissen, der mittels KI im Feld medizinischer Forschung erfolgt, ist evident. Mit der enormen Rechnerleistung und dem immer größeren Datenpool können Bild- und Mustererkennung, Korrelationen, Diagnostik und Prognostik durch maschinelles Lernen exponentiell wachsen. Damit wird mehr als wahrscheinlich, dass die Menschheit in Gänze davon für ihre Gesundheit profitieren wird.

Im hochsensiblen Feld von KI und Medizin sollten wir uns als Gesellschaft gut austauschen. Vorteile nutzen, Nachteile perspektivieren, beides gestalten. Über Themen wie die im folgenden gelisteten:

  • Datenherkunft
  • Datenbasisgröße
  • Datenintegrität (frei von Diskriminierung)
  • Datennutzung
  • Datenbesitz
  • Datensicherheit
  • Datenethik

Ohne Daten verläuft der medizinische Fortschritt anders. Anders – das sagt erst mal nichts zu besser oder schlechter. Ohne gesellschaftlichen Austausch verläuft er auch anders, ich wage zu vermuten, schlechter.

Im Medizinsektor entsteht Vertrauen aus Leitwerten wie Präzision und Dezenz. Es gilt ethisch vor prahlerisch, richtig vor knackig.  Die jahrtausendalten Narrative rund um das Patientenwohl haben einen virulenten Kern. Der Marktschreier oder Quacksalber ist noch heute die Kehrseite der hippokratisch-galensischen Medaille – aber die weniger gut beleumundete und weniger vertrauenswürdige. Narrative sind instabil, solange sie nicht ausgehandelt werden, das habe ich an anderer Stelle zu zeigen versucht. Sie haben Geschichte.

Je öfter am Ende hängenbleibt, „das ist eh alles Quatsch“ oder „die da oben verdienen sich doch nur an uns eine goldene Nase (noch dazu an unseren frei hergeschenkten Daten)“, desto mehr schadet es dem ganzen Sektor und kann überspringen.

An dem Konflikt sind übrigens viele Akteure beteiligt – Unternehmen, Forschungseinrichtungen, Healthlobbyisten genau wie Medien, PR und Storyteller. Das Newsparadigma „only bad news are good news“ trägt mit dazu bei, dass vollmundige, markante Headlines schneller in der Welt sind als kluge Überprüfungen ihres Wahrheitsgehalts. Nebenbei, manche Pseudofrage in sozialen Netzwerken in sozialen Netzwerken steht der Irreführung in nichts nach.

Angehende Journalisten lernen, die Überschrift solle bitteschön halten, was sie verspricht. Eine Überschrift, die korrekt mitteilt, was der gemachte Befund womöglich irgendwann einmal tun könnte, hat aber weniger Chance auf Wahrnehmung. Eine Story to tell ist immer formwirksam. Sie verändert den Stoff, macht ihn beileibe nicht nur spannender. Drei Aspekte zu einer vermeintlich simplen Sache wie einer Überschrift. Drei Interessenslagen, ein Zielkonflikt.

Was also tun? Fehlt es an Konstruktivem, lösungsorientierten Journalismus? Fehlt es an Gute-Nachrichten-Medien? Fehlt es an storybegeisterten Heilsbringern?

Ich habe vor einiger Zeit eine Idee zu einem KI-Hub mit eigenem Printableger angeregt. Beides, jedes auf medienspezifische Weise, sollte genau auf diese neue Anforderung reagieren. Was und vor allem wie schreiben, lesen, bewerten, wissen wir alle künftig über Ankündigungsszenarien (vgl. auch nochmal den Pressekodex, hier Ziffer 2, 2.3, Ziffer 7). Wie gehen wir mit Teilergebnissen um? Wie nachhaltig kann guter Journalismus an Themen, etwa aus dem Bereich Medizin dranbleiben? Wie frei ist der Journalismus, wie frei die Medizin, die KI von blinden Flecken?

In der Möglichkeit einer neuen Technologie liegt kein Problem per se. In dem nicht breit genug geführten Dialog, wie wir damit umgehen wollen, schon. Es liegt auch keins in der – letzlich graduellen – Unterscheidung von Assistenz oder Ersatz (100% Assistenz sind Ersatz). Die eigentliche Frage ist, welche Zugänglichkeit (Verfügbarkeit), welchen Stellenwert (heuristisch, epistemoloisch) und welche Relevanz (als Gesetzbildung im weitesten Sinn) erhält das so erzeugbare Daten- und Mustererkennungs-Wissen für uns alle. Es geht weniger um die pekuniäre Verwertbarkeit (Märkte finden sich in kapitalistischen Systemen immer und die Frage ist berechtigt, ob das so sein muss oder kann). Aber die eine große Frage ist primär gesellschaftsphilosophisch, da sie einen epochalen Umbruch markiert, der das künftige Leben berührt. 

Meine Empfehlung bis auf weiteres lautet, gerade, weil die von KI erzeugten Ergebnisse erwartbar immer besser werden, sollten alle, die mit KI und Medizin zu tun haben, sich freiwillig eine besonderen Selbstverpflichtung auferlegen.

Wir sind auf dem besten Wege, eine Forecast-Society zu werden. Was bedeutet das – für unser Verständnis von Wirklichkeit, Gesellschaft und von uns selbst, als Gesunde oder Kranke, aber auch für das Erzählen, für die Berichterstattung? Da wären Experimente willkommen.