KI und Medizin: Technologien wie bei „Star Trek“ Interview mit Hertie AI Gründungsdirektor Philipp Berens
Welche Chancen und Risiken birgt der Einsatz von KI beim Erkennen und Behandeln von Krankheiten? Ein Interview mit dem Tübinger Wissenschaftler Philipp Berens über selbstdenkende Computer als Helfer in der Medizin.
Von Lorenzo Zimmer
Kein Forschungszweig steht so sehr im Zentrum der öffentlichen Aufmerksamkeit wie Künstliche Intelligenz. Vom Silicon Valley über die Schwäbische Alb bis nach Shanghai sprießen KI-Firmen aus dem Boden, und an Universitäten und Forschungsinstituten auf der ganzen Welt beschäftigen sich einige der klügsten Köpfe mit der nächsten Evolutionsstufe der digitalen Realität. In Tübingen forscht und lehrt Philipp Berens als Professor unter anderem an der Schnittstelle von Künstlicher Intelligenz, Neurowissenschaften und Augenheilkunde. Technologien, die er mit seinem Team am Hertie Institute for AI in Brain Health entwickelt, können beispielsweise Menschen im Kampf gegen altersbedingte Augenerkrankungen und Begleiterkrankungen von Diabetes helfen. Im April hält Berens min Tübingen einen Vortrag über Künstliche Intelligenz in der Medizin (siehe Infokasten), mit dem TAGBLATT sprach er vorab über seine Forschung und den Stoff für Science-Fiction-Autoren der Zukunft.
TAGBLATT: Herr Berens, von wem würden sie sich lieber operieren lassen – von einer ausgereiften KI in einem Roboter oder einem erfahrenen Chirurgen aus Fleisch und Blut?
Philipp Berens: Aktuell vermutlich von einer erfahrenen Kollegin oder einem erfahrenen Kollegen, der jeden Tag am OP Tisch steht. Das ist jedoch keine Frage nach einem Entweder-Oder. Bereits heute wird bei vielen Operationen von Robotern assistiert, und der Mensch arbeitet mit Maschinen eng zusammen. Aber den Holodoc aus „Star Trek Voyager“ würde ich durchaus gerne mal kennenlernen.
In welchen Bereichen der Medizin wird KI aktuell am stärksten eingesetzt?
Im Moment vor allem da, wo es um die automatisierte Beurteilung von Bildern geht. Zum Beispiel gibt es Firmen, die an einem Verfahren für besseres Brustkrebs- Screening arbeiten – oder an einem Screening für Augenerkrankungen, die im schlimmsten Fall zur Erblindung führen.
Woran forschen Sie im Moment?
Am Hertie-Institut arbeiten wir daran, Fortschritte in der Künstlichen Intelligenz dafür nutzbar zu machen, Erkrankungen des Nervensystems früher zu erkennen und zielgerichteter zu behandeln. In meiner Abteilung beschäftigen wir uns vor allem mit Erkrankungen der Augen. Es geht etwa um häufige Alterserscheinungen wie Makula-Degeneration und um Diabetische Retinopathie, eine Schädigung der Netzhaut.
Und was kann Ihre KI besonders gut?
Wir versuchen, Algorithmen zu entwickeln, die in ihrer Entscheidungsfindung für den Menschen möglichst transparent sind und die Krankheitsverläufe besonders präzise vorhersagen können.
So eröffnen Sie unter anderem in der Diagnostik neue Möglichkeiten–warum ist Künstliche Intelligenz gerade in diesem Bereich so wertvoll?
Ich bin mir gar nicht sicher, ob Künstliche Intelligenz hier besonders wertvoll ist. Vielmehr ist das ein besonders dankbares Anwendungsfeld für die Methoden der KI, weil die Zielfunktion sehr klar ist. Die KI soll Diagnosen eines Experten-Panels anhand eines vorgegebenen Datensatzes reproduzieren. Möglichst große und qualitativ hochwertige Datensätze sind für sie dabei bisher überaus wichtig. Erst jetzt entstehen langsam Bereiche, in denen Künstliche Intelligenz einsetzbar werden könnte, obwohl es wenige bis gar keine Experten- Informationen gibt.
Wird dann das Ende der Fahnenstange in der medizinischen KI-Forschung erreicht sein?
Ich denke, das wahre Potenzial dieses Bereichs habe wir alle noch nicht ansatzweisebegriffen. Ich gehe davon aus, dass weiterhin große Potenziale, beispielsweise in der Therapie-Optimierung, in Verlaufsvorhersagen und in der Früherkennung, liegen.
Sprechen wir über Risiken: Welche Bedenken gibt es beim Einsatz von KI in der Medizin?
Eine KI versucht immer ihrem jeweiligen Training entsprechend, Kategorisierungenzu reproduzieren, die von Expertinnen und Experten vorgegeben sind. Hier ergeben sich unterschiedliche negative Szenarien: KI Verfahren könnten beispielsweise einen Standard erlernen, den Experten vorgegeben haben und dem sich junge Ärzte dann anpassen, obwohl sie vielleicht Zweifel an der Richtigkeit der Ergebnisse haben. Denn die Meinung der KI kommt im Duktus des Experten- Gremiums daher und kann dadurch besonders plausibel auf sie wirken. Mit solchen Herausforderungen befassen wir uns auch zusammen mit Kollegen im Bereich der medizinischen Ethik.
Sehen Sie noch weitere Probleme?
Eines lässt sich zum Beispiel im Bereich der Augenheilkunde sehr plastisch erläutern: Wenn ein Verfahren beispielsweise in Deutschland oder Europa entwickelt wurde und dann in Afrika eingesetzt wird, kann das eine KI vor Probleme stellen. Weil sich der Augenhintergrund hellhäutigerund dunkelhäutiger Menschen in der Pigmentierung unterscheidet. Ein Verfahren, das bei hellhäutigen Patienten funktioniert, muss nicht bei dunkelhäutigen Patientenfunktionieren.
Droht eine Entmenschlichung der Medizin?
Nein, das glaube ich nicht. Aus meiner Sicht liegt die Zukunft in der Zusammenarbeitvon Mensch und Algorithmus. Letzterer wird zum Werkzeug, vergleichbar mit vielen Geräten, die in der Medizin längst selbstverständlich geworden sind. Algorithmen werden uns erlauben, Dinge zu tun, die ohne sie nicht möglich wären – etwa bei Screenings, für die uns vieleentsprechend spezialisierte Expertinnen und Experten fehlen.
Was passiert, wenn die KI einen Behandlungsfehler begeht?
Eine KI wird niemals eigenständig eine Behandlung vornehmen – zumindest nicht in unserem aktuellen Rechtsrahmen und nicht auf absehbare Zeit. Natürlich machen Algorithmen Fehler wie wir Menschen auch. Fehldiagnosen sind aus meiner Sicht aber ein Aspekt, der durch aktuelle KI-Forschung in der Diagnostik eher wieder ins Zentrum der wissenschaftlichenAufmerksamkeit gerückt ist. Die Frage wird sein, wie wir KI-Systeme so bauen können, dass Menschen möglichst gut und zuverlässig mit ihnen zusammenarbeiten können und Fehler vermieden werden können. Deshalb arbeiten wir vor allem an Verfahren, die inhärent Informationen zur Verfügung stellen und Entscheidungen verbessern können, statt Interpretationen vorzunehmen. So konnten wir in einer Studie zeigen, dass die KI-Unterstützung den Ärzten hilft, schneller die richtigen Entscheidungen zu treffen.
Sie haben Datensätze erwähnt: Wird der Patient für Krankenkassen und den Staat gläsern?
Datenschutz ist ein Thema, das gerade im Gesundheitswesen einen hohen Stellenwert hat und das wir daher sehr ernst nehmen. Ich sehe die Gefahr aber weniger durch Krankenkassen und den Staat, sondern mehr durch große Firmen. Technisch lässt sich sehr gut lösen, wer wann Zugriff auf welche Daten hat und welche Nutzungsrechte eingeräumt werden.
Diese Dinge müssten aber geregelt werden– und diese Regeln dann auch eingehalten.
Es braucht sicher ein regulatorisches Rahmenwerk, an das sich Staat und quasi- staatliche Institutionen wie Krankenkassenauch halten. Ein viel größeres Problemsehe ich dennoch zum Beispiel bei Gesundheits-Apps auf Handys, mit denen Menschen ihre Daten ganz freiwillig und auf äußerst unsichere Weise – auch technisch gesehen – teilen. Insofern ist der Umgang mit wirtschaftlichen Akteuren eine größere Herausforderung als mit staatlichen.
Sehen Sie auch hier Lösungen?
Dafür bin ich kein Experte, aber natürlich braucht es ebenfalls entsprechende Regulierungenund Standards. In Europa sind wir da auf einem guten Weg – zum Beispiel durch den sogenannten AI-Act.
Mit diesen KI-Regeln will die Europäische Union große Fragen der Zukunft beantworten. Dabei war KI vorwenigen Jahrzehnten noch ein Thema für futuristische Action- Streifen aus Hollywood: Gibt es Entwicklungen, die Sie selbst nicht für möglich gehalten hätten?
Die Fortschritte der letzten zehn Jahre sind schon beeindruckend. Wir können heute schriftlich zwischen Sprachen hin und her übersetzen und Online-Videokonferenzenlive in anderen Sprachen untertiteln. So etwas hätte ich nicht in so kurzer Zeit erwartet. Auch das erinnert mich an die Welt von „Star Trek“ und ihren universalen Übersetzer. Weitere beeindruckende Beispiele sind die Text und Bild-Generierungen durch Künstliche Intelligenz, die uns wiederum vor ernste Gefahren und regulatorische Herausforderungen stellen, wenn man an Fake-News oder die Manipulation von Bildern denkt. Über solche Themen werden wir als Gesellschaften sprechen müssen