Algorithmen für die Medizin : Datum:
Algorithmen sind mittlerweile überall: Sie bestimmen, was wir in sozialen Netzwerken oder auf Shoppingseiten zu sehen bekommen, übersetzen Texte, berechnen Produktionsprozesse in modernen Fabriken und steuern die ersten autonomen Fahrzeuge. Nur in der medizinischen Praxis ist künstliche Intelligenz (KI) bisher noch wenig verbreitet. Die Hochschule für Technik und Wirtschaft Berlin will das ändern: Im Projekt deepHEALTH entwickelt ein Forscherteam Deep-Learning-Methoden auf Basis neuronaler Netzwerke, die in der medizinischen Diagnostik und Forschung eingesetzt werden sollen.
Die moderne Medizin produziert massenhaft Bilder. Da wird geröntgt, gescannt, präpariert und gefärbt, doch anschließend müssen all diese Bilder von geschultem medizinischen Personal beurteilt werden – „von Hand“ sozusagen. In anderen Lebensbereichen kommt in solchen Fällen längst KI-gesteuerte Bilderkennung zum Einsatz. Warum verläuft die Entwicklung im medizinischen Bereich so schleppend, wo doch ansonsten der Einsatz dieser Technologie geradezu explodiert?

Prof. Dr. Christian Herta, Datenwissenschaftler an der HTW Berlin und Leiter des Projekts deepHEALTH, kann gleich eine ganze Reihe von Gründen dafür nennen. Zum einen sind in der Medizin noch ganz praktische Probleme zu lösen, zum Beispiel mit Bildern von histologischen Gewebeschnitten: Sie haben etwa die achtzigfache Auflösung von gewöhnlichen Fotos und sind damit zu groß, um an einem Stück von neuronalen Netzen verarbeitet zu werden. „Histologiebilder können nur ausschnittweise analysiert werden. Dabei können dem Algorithmus entscheidende Informationen für die Gesamtdiagnose verlorengehen, weil ihm die Zusammenhänge fehlen“, so Herta.
Ein weiteres Problem ist die Verfügbarkeit von Daten – denn KI braucht große Mengen davon, um zu lernen. Außerdem müssen die Daten zunächst aufwendig annotiert, also mit Anmerkungen zum Bildinhalt versehen werden. Für die Krebsdiagnostik etwa bedeutet das, dass Mediziner Tumorbereiche auf Gewebeschnitten markieren müssen (siehe Artikelbild), bevor die Bilder genutzt werden können, um einen Algorithmus zu trainieren. Und während Millionen und Abermillionen gewöhnliche Fotos von Häusern, Autos oder Tieren in frei zugänglichen Datenbanken lagern, werden Bilder aus der Medizin aus gutem Grund streng geschützt. „So gesehen ist Datenschutz für die KI-Entwicklung eine echte Herausforderung, denn es gibt in gut geschützten Bereichen einfach weniger Trainingsdaten“, sagt deshalb Institutsmitarbeiter Dr. Christian Krumnow.
Bilder, Proteinsequenzen, Schlafdaten – ein Fall für die KI
Die Berliner Wissenschaftler wollen trotzdem versuchen, der Medizin etwas mehr künstliche Intelligenz zu verleihen – natürlich unter Berücksichtigung der speziellen Bedingungen, die der Bereich mit sich bringt. Im Projekt deepHEALTH spielt Bilderkennung eine wichtige Rolle, denn dafür gibt es eine Menge Anwendungspotenzial: Die häufigsten Krankheiten, darunter Krebserkrankungen, produzieren natürlich auch die größten Bildmengen und somit die meiste Arbeit für Pathologen, Onkologen und Radiologen.
Doch KI hat noch weitere Vorzüge. Zum Beispiel eignen sich entsprechend trainierte neuronale Netze auch zur Spracherkennung. Und Sprache wiederum weist deutliche Parallelen zur Biochemie auf, in der Sequenzen eine Rolle spielen: „Die Abfolge von Basen auf einem DNA-Strang oder von Aminosäuren in einem Protein ist der Abfolge von Buchstaben, Wörtern und Sätzen strukturell sehr ähnlich“, erklärt Herta. Deshalb entwickelt das Team auch Algorithmen für die Erkennung und richtige Zuordnung von Biomolekül-Sequenzen, sodass die Maschinen zum Beispiel nur anhand von Genombruchstücken in einer Probe den Typ eines Krankheitserregers identifizieren können. Und auch für die Schlafmedizin, in der komplexe Daten anfallen und Mustererkennung gefragt ist, hat das Projektteam bereits an Algorithmen gearbeitet.
Algorithmen sollen den Arzt unterstützen, nicht seinen Job übernehmen
Außerdem treibt die Berliner Forscher ein spezielles Problem um, das in vielen Anwendungsbereichen von KI nicht ganz so relevant ist, in der Medizin aber schon: Algorithmen sind eine Art Blackbox. „Selbst die Programmierer eines Algorithmus können oft nicht sagen, wie er im Einzelnen zu seiner Entscheidung gekommen ist“, erklärt Christian Krumnow. Wichtiger ist das Ergebnis: Man füttert das Programm mit Input („Hier hast du einen Stapel Bilder“) und bekommt den geforderten Output („Such mir alle Bilder mit Katzen heraus“). Der konkrete Weg, der zu diesem Ergebnis geführt hat, ist jedoch oft völlig unklar.
Wenn es um die automatische Identifizierung von Katzenbildern geht, kann man dieses Dunkelfeld vielleicht noch tolerieren. In der Medizin aber geht es schlimmstenfalls um Leben und Tod – natürlich wollen Arzt und Patient da genau wissen, warum die KI zum Beispiel in einer Gewebeprobe einen Tumor entdeckt haben will. Schließlich arbeiten auch Algorithmen nicht fehlerfrei, im Gegenteil: Manchmal sind sie sich ihrer Sache viel zu sicher, man nennt das „überkonfident“. Krumnow nennt ein anschauliches Beispiel für den Effekt: „Wenn man einen Standardalgorithmus darauf trainiert, Hundebilder von Katzenbildern zu unterscheiden, ihm dann aber Bilder von Autos zeigt, wird er die Autos nicht erkennen, sondern sie als Hunde oder Katzen klassifizieren – und dabei auch noch signalisieren, dass er sich seiner Sache sehr sicher ist.“ Ein Algorithmus für medizinische Anwendungen dagegen muss zuverlässig erkennen, wenn er etwas anderes vor sich hat als die Dinge, auf die er trainiert wurde, und melden, dass er an dieser Stelle keine Klassifizierung liefern kann. In solchen Fällen kann der Arzt dann eingreifen und sich ein eigenes Bild machen.
Überkonfidenz vermeiden und die Entscheidungswege in der „Blackbox“ ausleuchten: Das gehört zu den wichtigsten Projektzielen von deepHEALTH, denn hier ist noch viel Grundlagenforschung zu leisten. Außerdem wollen Christian Herta und seine Kollegen auch Vorbehalte unter den späteren Anwendern abbauen: Ärzte reagierten oft skeptisch auf Programme, die ihnen scheinbar die Arbeit abnehmen, so Herta. Ziel sei aber ein System, das die Arbeit der Mediziner unterstützt, statt sie ihnen abzunehmen. „Das System darf daher nicht intransparent arbeiten und dem Arzt auch nicht die Motivation rauben, eigene Entscheidungen zu treffen.“
Mittendrin in einer rasanten Entwicklung
Dass sie mit ihrem Projekt voll im Trend der Zeit liegen, hat für Herta und seine Kollegen nicht nur Vorteile. Eines der Unterprojekte wurde noch während der Antragsphase von aktuellen Entwicklungen überholt: Ein Forscherteam aus den USA publizierte Ergebnisse zu einer der Forschungsfragen von deepHEALTH, bevor man in Berlin auch nur mit der Arbeit beginnen konnte. „Wir konnten den Projektplan aber entsprechend anpassen“, so Herta. Und mittlerweile stellen sich Erfolge ein: Der erste Promovend im Projekt hat seine Arbeit schon abgeschlossen, sein Nachfolger befasst sich nun verstärkt mit der Interpretierbarkeit der Algorithmen und der Frage, ob und wie man dem System eine Erklärfunktion einprogrammieren kann. Christian Herta formuliert derweil schon mal Visionen für die Zukunft: Am liebsten hätte er irgendwann ein Programm mit Sprachausgabe, das dem Arzt direkt mitteilt, was es entdeckt hat und warum es die Daten so und nicht anders interpretiert.
Insgesamt aber ist die HTW Berlin mit deepHEALTH ganz nah dran an einem der spannendsten Zukunftsthemen. Auch wenn schon einige KI-Systeme für die Medizin an Unikliniken erprobt werden, kommerziell umgesetzt sind viele davon noch nicht. Früher oder später wird die Künstliche Intelligenz jedoch auch in der Medizin zur Normalität gehören – um ihre Nutzer zu unterstützen und um hier und da vielleicht sogar Dinge zu finden, die selbst das geschulte Auge eines Arztes übersehen hat. Wenn die Algorithmen Ärzten und Patienten wirklich helfen können, dann sind Christian Herta und seine Kollegen zufrieden – vorerst.