SENDETERMIN Sa., 15.06.19 | 16:00 Uhr | Das Erste

"Dr. KI": Künstliche Intelligenz in der Medizin

Eine Person liegt in einem MRT-Gerät.
Diagnosegeräte wie MRT und CT liefern heute hochauflösende Bilder. | Bild: NDR

Dank radiologischer Verfahren wie dem MRT oder dem CT können Ärzte heute tief in den menschlichen Körper hineinschauen, um Krankheiten und Verletzungen aufzuspüren. Die hochauflösenden Bilder sind mittlerweile so detailreich, dass es jahrelanges Training erfordert, um schnell und sicher Diagnosen daraus abzuleiten. Doch bei der Flut der Daten kann niemand garantieren, dass Ärzte jede noch so winzige Information aus dem Bild ablesen. Ein klassischer Fall für den Einsatz von Künstlicher Intelligenz. Denn ein Computer wird niemals müde und seine Augen sehen einfach alles.

Vom Röntgenbild zum CT und MRT

Als Wilhelm Conrad Röntgen am 8. November 1895 die von ihm so genannten X-Strahlen entdeckte, geschah das eher zufällig. Das Potenzial seiner Entdeckung war Röntgen allerdings sofort klar. Einen Blick in den Körper werfen zu können, ohne den Patienten aufschneiden zu müssen – eine wahre Revolution in der Medizin. Eine der ersten Aufnahmen, die Röntgen mit seiner neuen Erfindung machte, war das noch leicht unscharfe Bild der linken Hand seiner Frau. Darauf konnte man die Hand-Knochen und den Ehering bereits gut erkennen.

Seitdem haben Wissenschaftler die bildgebenden Verfahren in der Medizin permanent weiterentwickelt und verfeinert. Die Strahlenbelastung konnte im Laufe der Zeit gesenkt werden, gleichzeitig wurden die Aufnahmen immer detailreicher. Durch Verwendung mathematischer Verfahren lassen sich mit den modernen bildgebenden Techniken wie der Computertomographie sogar dreidimensionale Abbildungen des Körperinneren erstellen.

Zu viel Information für das menschliche Auge

Aufnahme vom Gehirn.
Für die Analyse der Grauwerte braucht es jahrelanges Training – oder einen Computer. | Bild: NDR

Heute entstehen jeden Tag allein in Deutschland Hunderttausende radiologische Aufnahmen. Egal ob Röntgen, CT oder MRT – die meisten Bilder liegen bereits innerhalb weniger Minuten digital zur Auswertung bereit. Am Bildschirm können die Radiologen dann die Aufnahmen vergrößern und digital einfärben, um Details sichtbar zu machen. Mittlerweile sind die Bilder so detailreich geworden, dass das menschliche Auge zum Auslesen aller Bildinformationen Unterstützung braucht – und zwar von Computern. Denn Computer können hoch aufgelöste Bilder wesentlich besser analysieren als  Menschen. Sie verarbeiten die Aufnahmen Pixel für Pixel und erkennen dabei minimalste Abstufungen in Helligkeit, Farb- und Grauwerten, die für einen Menschen nicht erkennbar sind.

Mensch vs. Maschine

Computer können aber nicht nur viel tiefer in die Bilder hineinsehen, als es ein Mensch kann, sie werden dabei auch nicht müde und sie haben keine "Vorurteile". Denn so wichtig die Erfahrungen eines Radiologen beim Auswerten von Bildern sind, so können sie ihm ebenso gut im Wege stehen. Ein Beispiel aus der Praxis macht das deutlich: Der 14-jährige Florian B. bekam nach dem Fußballtraining plötzlich Rückenschmerzen. Sie waren so stark, dass der Junge nicht einmal mehr laufen konnte. Die Ärzte vermuteten eine Verletzung an der Wirbelsäule und schickten ihn ins MRT. Doch auf den Bildern war kein Schaden zu erkennen. Erst nach weiteren Aufnahmen und Tests stellte sich Tage später heraus, dass Florian einen lebensbedrohlichen Venenverschluss erlitten hatte, eine Thrombose.

Danach hatte auf den Bildern niemand gesucht, denn Thrombosen sind bei jungen und an sich gesunden Patienten äußerst selten. Die Kombination "junger, gesunder Mensch, Fußballtraining und plötzlich auftretende Rückenschmerzen" hatte die Ärzte auf eine falsche Fährte gebracht. In solchen Fällen, so die Hoffnung, kann Künstliche Intelligenz die Radiologen unterstützen.

Mustererkennung als Grundlage vieler Programme

Aufnahmen vom menschlichen Gehirn auf einem Computerbildschirm
Jeder Pixel könnte wichtige Informationen beinhalten. | Bild: NDR

Die ersten Computerprogramme zur Auswertung radiologischer Bilder basierten auf dem Prinzip der Mustererkennung. Dabei wird das Programm zunächst mit vielen unterschiedlichen Bildern der gesuchten Muster gefüttert. Am Ende dieser Lernphase ist der Computer in der Lage, das Muster selbstständig zu erkennen. Seit mehr als zehn Jahren wird dieses Verfahren zum Beispiel beim Aufspüren von Hautkrebs eingesetzt.

Die auffälligsten Merkmale bösartiger Melanome sind deren Asymmetrie und ihre Zusammensetzung aus verschiedenen Farben und unterschiedlichen Strukturen. Spezielle Diagnoseprogramme "sehen" diese Muster, egal wie schwach ausgeprägt sie sind, und sie können Veränderungen in den verdächtige Stellen im Zeitverlauf verfolgen, weil alle Aufnahmen abgespeichert und miteinander verglichen werden können.

"Smart Hospital": Universitätsklinikum Essen

Das Universitätsklinikum Essen bezeichnet sich als erstes "Smart Hospital" der Welt. Hier setzen die Mediziner auf modernste Technologie. Roboter in der Chirurgie, 3D-Karten vom Inneren des Herzens und der Einsatz von Analyseprogrammen in der Radiologie gehören in diesem Krankenhaus bereits zum medizinischen Standard. Ärzte und Algorithmen analysieren dort radiologische Bilder gemeinsam. Zum Beispiel beim Aufspüren von verräterischer Veränderungen im Hirngewebe bei Schlaganfall-Patienten.

Dazu werden die Aufnahmen aus dem CT vom Computer "vorgesichtet". Die Software spürt Bereiche auf, in denen die Gewebestruktur vom gesunden Zustand abweicht, und markiert sie für den Arzt. Der Arzt sieht sich das CT mit den markierten Stellen an und erstellt dann seine Diagnose. Aber Künstliche Intelligenz kann noch weit mehr leisten als reine Mustererkennung.

Ab wann man bei Computern von Intelligenz sprechen kann, ob sie überhaupt jemals intelligent sein werden, und was das für den Menschen bedeutet, darüber streiten sich die Spezialisten nach wie vor. Der Begriff Künstliche Intelligenz (KI) steht heute zunächst für den Versuch, die Prozesse, die im menschlichen Gehirn ablaufen, mit Hilfe von Computern nachzubilden.

Vom Menschen abgeguckt

Aufnahmen vom menschlichen Gehirn auf einem Computerbildschirm
Gesicherte Diagnosen sind das A und O für ein gutes Training. | Bild: NDR

In unseren Gehirnen feuern Milliarden von Neuronen ständig hin und her. Dabei bilden sie fortwährend neue Verbindungen untereinander und bauen andere ab, je nachdem, was für Erfahrungen wir machen. Führt unser Handeln in einer bestimmten Situation zum Beispiel zu einer Belohnung, kann sich unser Gehirn das merken. Dazu verstärkt es die Verknüpfungen zwischen den Neuronen, die zu der Handlung geführt haben. Machen wir hingegen eine schlechte Erfahrung, werden die entsprechenden Verbindungen geschwächt. Diese Fähigkeit unseres Gehirns ist entscheidend, wenn es darum geht, zu lernen, zu schlussfolgern und unseren Erfahrungen entsprechend zu handeln – wichtige Funktionen, wenn es ums Überleben geht.

Wie werden Computer intelligent?

Ein ganz normales Computerprogramm besitzt diese Fähigkeiten nicht. Es führt lediglich Befehle aus, selbst bei der Mustererkennung. Dort lautet der Befehl einfach nur: "Suche in allen Bildern nach diesem Muster, das wir dir eben gezeigt haben, und sag Bescheid, wenn du es gefunden hast."

Das Intelligente an der KI ist, dass sie diese eigens programmierten Diagnose-Modelle nicht mehr braucht. Sie bekommt keine Muster vorgelegt, die sie suchen soll. Stattdessen wird Künstliche Intelligenz so trainiert, dass sie sich am Ende selbst für die Kriterien, nach denen sie Auffälligkeiten wie zum Beispiel einen Tumor oder einen Schlaganfall identifiziert, entscheidet.

Die neue Schaltzentrale: Künstliche Neuronale Netzwerke

Technisch funktioniert das mithilfe von künstlichen Neuronen. Als Modell aus dem biologischen Vorbild der Nervenzelle entstanden, können künstliche Neuronen Informationen auf vielfältige Weise verarbeiten und darauf reagieren. Ankommende Informationen werden dabei gewichtet, ihre Bedeutung ist also nicht von Anfang an festgelegt.

Für ein Programm, das mit Künstlicher Intelligenz arbeitet, werden viele dieser künstlichen Neuronen miteinander über mehrere Schichten verbunden. Während der Verarbeitung der eingehenden Daten senden die künstliche Neuronen die gewichteten und gefilterten Informationen hin und her. Was genau dabei in der Matrix passiert, ist selbst den Computerspezialisten nicht ganz klar. Fest steht aber, dass solche Systeme lernen können und sich im besten Fall selbst optimieren.

Lerne zu Lernen

Dazu ist ein entsprechendes Training nötig: Im ersten Schritt wird das Programm zum Beispiel mit radiologischen Aufnahmen von Gehirnen gefüttert, auf denen ein Schlaganfall zu erkennen ist. Dem System wird gesagt: "Hier siehst du Schlaganfälle". Im nächsten Schritt wird das Programm mit einer Anzahl von Bildern gefüttert, auf denen Schlaganfälle erkennbar sind, und einer Anzahl von Bildern von gesunden Gehirnen. Der Computer soll nun herausfinden, welche Bilder Schlaganfälle zeigen und welche nicht. Am Ende der Übung wird dem System mitgeteilt, bei welcher Diagnose es richtig lag und welche Bilder es falsch eingeschätzt hat.

Die Verbindungen und Gewichtungen der Neuronen, die zum richtigen Ergebnis geführt haben, werden gestärkt, diejenigen die zum falschen Ergebnis geführt haben, werden geschwächt. Ganz ähnlich, wie es auch im menschlichen Gehirn abläuft.

Dr. KI

Zwei Männer stehen vor Bildschirmen, auf denen Aufnahmen des menschlichen Körpers zu sehen sind.
Am Universitätsklinikum Essen hilft Künstliche Intelligenz bei der Diagnose. | Bild: NDR

Die nächste Entwicklungsstufe der Digitalisierung in der Radiologie wird gerade am Uni-Klinikum in Essen getestet und weiter entwickelt: Ein neues Programm hilft hier zum Beispiel dabei, Gewebeveränderungen sichtbar zu machen. Jeder, der schon einmal versucht hat, ein "Finde die Unterschiede"-Bilderrätsel zu lösen, weiß, wie schwierig es sein kann, auf zwei auf den ersten Blick völlig gleichen Bildern die fünf oder zehn versteckten Unterschiede zu finden. Das liegt vor allem daran, dass unsere Augen dabei ständig zwischen den beiden Bildern hin und her wandern müssen. Könnte man die beiden Bilder direkt übereinander legen, wären die Unterschiede sofort sichtbar.

Genau das macht das neue Computerprogramm. Es hilft dabei, ältere und neuere Aufnahmen von Patienten passgenau übereinander zu legen. Der Radiologe kann dann an jeder beliebigen Stelle im Bild mit Hilfe einer Vorher-Nachher-Lupe nach Veränderungen suchen. Auffällige Unterschiede markiert das Programm selbständig in verschiedenen Farben.

Mehr Wissen für bessere Diagnosen

Zusätzlich hat das Programm Zugriff auf Untersuchungsergebnisse, Bilder, Befunde und Therapieempfehlungen aus medizinischen Datenbanken und Lehrbüchern. Das Programm sucht dort nach ähnlichen Fällen und nach Übereinstimmungen. Findet es zum Beispiel ein ähnliches Röntgenbild von einem Patienten mit ähnlichen Werten und einer gesicherten Diagnose, zeigt es dem Radiologen seinen Fund. So kann "Dr. KI" dem Radiologen in kürzester Zeit eine Auswahl an möglichen Diagnosen und Therapien zur Verfügung stellen.

Die stetig wachsende Flut von Daten aus radiologischen Untersuchungen wird in Zukunft immer häufiger von Künstlicher Intelligenz "vorgesichtet" werden. Die Bewertung dieser Diagnosen und die Verordnung entsprechender Therapien werden aber vorerst weiter in den Händen von Menschen bleiben.

Autorin: Julia Schwenn (NDR)

Stand: 15.06.2019 16:58 Uhr

Sendetermin

Sa., 15.06.19 | 16:00 Uhr
Das Erste

Produktion

Norddeutscher Rundfunk
für
DasErste