zum Inhalt springen
Powered by
Intelligente Diagnostik

KI für Mehrwert in der digitalen Hautkrebsdiagnostik

Das Projekt „Intelligente Diagnostik“ bringt interdisziplinär die neuesten Technologien und Forschungsinstitute zusammen, um mithilfe innovativer Bildgebung und Künstlicher Intelligenz Ärztinnen und Ärzte besser bei der Hautkrebsdiagnostik zu unterstützen.

Ist es ein Muttermal oder vielleicht doch ein Melanom? Das geschulte Hautarzt-Auge sieht natürlich viel, aber eben nicht alles. Selbst mit Dermatoskopen, also einfachen mobilen Auflichtmikroskopen, liegt die diagnostische Sensitivität laut Studien zurzeit nur bei rund 85 Prozent. Künstliche Intelligenz (KI) eröffnet nun neue Chancen, den Ärztinnen und Ärzten noch deutlich bessere Unterstützung zu bieten. Fünf baden-württembergische Forschungseinrichtungen haben ihre Expertisen kombiniert, um gemeinschaftlich ein neuartiges Diagnosesystem auf der Basis KI-gestützter Bildgebung zu entwickeln: das FZI Forschungszentrum Informatik, das ILM Institut für Lasertechnologien in der Medizin und Meßtechnik an der Universität Ulm, die Hahn-Schickard-Institute in Villingen-Schwenningen und in Stuttgart sowie das NMI Naturwissenschaftliches und Medizinisches Institut an der Universität Tübingen. Alle fünf gehören zur Forschungsallianz innBW und sind darüber seit langem vernetzt.

Nahaufnahme einer Armunterseite mit Pigmentflecken, auf der – als Teil einer multispektralen Aufnahme – das bläuliche, strichcodeartige Projektionsmuster für eine Wellenlänge zu sehen ist.
Der Ausschnitt einer multispektralen Aufnahme zeigt das Projektionsmuster für eine Wellenlänge. © FZI Forschungszentrum Informatik

Das Verbundkonzept war so überzeugend, dass es bereits von 2019 bis 2021 durch Landesmittel gefördert wurde. Im Anschluss waren die Ergebnisse so vielversprechend, dass die Projektpartner eine zweite Landesförderung in Höhe von zwei Mio. Euro für 18 Monate bekommen haben. Damit wollen sie ihr Vorhaben weiter in Richtung Anwendung voranbringen. Zusammengefasst besteht der Ansatz darin, durch ausgeklügelte Messungen bildbasierte Datensätze mit Zusatzinformationen zu erzeugen, mit denen Modelle Künstlicher Intelligenz so trainiert werden, dass sie bei neuen Aufnahmen gutartige von bösartigen Hautveränderungen unterscheiden können. Dabei wird zum einen die Erkenntnis genutzt, dass Veränderungen im Hautgewebe dazu führen, dass darauf gerichtetes Licht anders gestreut und absorbiert wird. Zum anderen nutzt das Team strukturierte Beleuchtung sowie unterschiedliche Eindringtiefen verschiedener Wellenlängen – auch jenseits des sichtbaren Lichts –, um ein Profil der Hautveränderung zu erstellen und Daten auch aus tieferen Hautschichten zu akquirieren.

Erstellung von 3D-Topografie der Hautveränderungen

FarbigesPorträtbild von Christoph Becker.
Christoph Becker ist Wirtschaftsinformatiker und seit Dezember 2009 am FZI beschäftigt. Hier leitet er das Projekt „Intelligente Diagnostik“. © FZI Forschungszentrum Informatik

„Der im Projekt verfolgte Ansatz beruht auf multispektraler Bildgebung mit strukturierter Beleuchtung. Dabei arbeiten wir zwar mit Kameras, die erzeugten Datensätze sind jedoch nicht mit herkömmlichen RGB-Bildern vergleichbar“, sagt Christoph Becker, der das Projekt vonseiten des FZI leitet und das Verbundprojekt koordiniert. Die Idee dahinter: Jede betrachtete Wellenlänge wird mit den unterschiedlichen Streifenmustern auf die zu untersuchende Hautstelle projiziert. Die Reflexionen der Beleuchtungsmuster werden dann mithilfe eines Kamerasystems aufgezeichnet. Da die Strahlen unterschiedlich tief eindringen, ist es möglich, Informationen aus unterschiedlich tiefen Hautschichten zu gewinnen. „Das Messsystem nutzt neun verschiedene Wellenlängen bis in den Nahinfrarot-Bereich und dringt damit einige Millimeter tief in die Haut ein. Mit diesem Messsystem können wir über 40 Abbildungen pro Aufnahme generieren“, präzisiert Becker. Mithilfe der strukturierten Beleuchtung kann zudem aus den Bilddaten eine dreidimensionale Topografie der zu untersuchenden Hautveränderung erstellt werden.

Das optische Messsystem wurde vom ILM entwickelt, und die erforderlichen Optiken wurden in enger Kooperation mit dem Hahn-Schickard Institut Stuttgart verbessert. Zurzeit arbeitet das Projektteam mit zwei Kameras, um Störartefakte, etwa durch Oberflächenstreuung, herausrechnen zu können. In der zweiten Projektphase soll der Prozess robuster werden, was auch den Aufbau eines handlichen Gerätes erleichtern würde. „Eventuell können wir auf die zweite Kamera verzichten, falls sich der Effekt der Oberflächenstreuung als nicht relevant herausstellt. Das ist eine der Fragestellungen, die wir in der zweiten Förderphase klären wollen“, sagt Becker.

Aufgaben auf vielen Schultern verteilen

Das Foto zeigt den Demonstrator des Diagnostik-Systems. Links ist das Messsystem mit Stativ und Kamera zu sehen, rechts Rechner und Bildschirm für die Bedienung (rechts).
Im FZI House of Living Labs wurde ein Demonstrator des Diagnostik-Systems aufgebaut, bestehend aus Messsystem (links) und lokaler Recheneinheit für die Bedienung (rechts). © FZI Forschungszentrum Informatik

Mit den bereits erzeugten Bildern – in der nächsten Phase kommen weitere hinzu – wird ein KI-Modell gefüttert, das dann in Hunderten von Lernzyklen ermittelt, welche Bilddaten einem gutartigen bzw. bösartigen Tumor entsprechen. Bereits im Oktober 2020 haben die Partner damit angefangen, mit ihren Daten KI-Modelle zu trainieren und erhalten eine immer bessere Treffsicherheit. Diese wird laufend mithilfe von Laboranalysen verifiziert. „Die Daten reichen jedoch noch nicht aus, um die Güte des Ansatzes abschließend zu bewerten, deshalb machen wir mit der Erhebung von Trainingsdaten weiter“, sagt Becker und ergänzt: „Wir haben schon eine gewisse Herausforderung in der Erhebung von Trainingsdaten, denn für das neuronale Netz sind sehr umfassende Datensätze nötig.“ Hier kommt die Expertise des Hahn-Schickard-Instituts in Villingen-Schwenningen ins Spiel: Die dortigen Projektpartner kümmern sich um Aspekte des verteilten Lernens. „Sie arbeiten dabei mit Mess-, aber auch mit simulierten Daten“, so Becker.

Zu Anfang wurden am ILM synthetische, also nur auf Simulationen basierende Daten, generiert. Anschließend wurden mit der Universitätshautklinik in Tübingen Messungen mit Patientinnen und Patienten durchgeführt, um Daten aus der Praxis zu erhalten. Das Ziel ist nun, an mehr Kliniken und eventuell auch in Praxen Daten zu erfassen und vor Ort jeweils ein KI-Modell damit lernen zu lassen. Die Partner sollen dann ihre gelernten KI-Modelle austauschen, bzw. an einer geeigneten Stelle fusionieren und das Erlernte auch wieder an die Kliniken zurückspielen. „Wie genau die Kommunikation erfolgen soll und die Automatismen dazu, sind weitere Entwicklungsziele“, so Becker.

Lernerfolg der KI hängt auch von der Qualität der Basisdaten ab

Der Wirtschaftsinformatiker hat mit seinem Team eine integrierende Funktion im Projekt: Am FZI wurde die Daten- und KI-Managementplattform aufgebaut, damit die unterschiedlichen Systeme der Partner miteinander arbeiten und bei Veränderungen angepasst werden können. Außerdem steht auf der Agenda des FZI, eine geeignete Visualisierung für Ärztinnen und Ärzte zu entwickeln.

Eine weitere spezielle Aufgabe hat das NMI Reutlingen übernommen: Hier wird analysiert, welche molekularen Biomarker auf Protein- und mRNA-Basis eine nähere Klassifizierung der zugrunde liegenden Melanome erlauben, zum Beispiel für einen aggressiven Verlauf oder ein Rezidiv sprechen. Die Ergebnisse werden mit den Bilddaten korreliert und finden so ebenfalls Eingang in die lernenden KI-Modelle.

In der nächsten Projektphase geht es auch um ganz praktische Aspekte der Geräteherstellung. Die komplexen Optiken sollen in einem flexiblen Prozess günstig herzustellen sein. Außerdem gilt es, die Optik zu miniaturisieren, zum Beispiel durch die Verwendung geeigneter mikrooptischer Bauteile. Hierbei arbeiten das ILM und das Hahn-Schickard-Institut Stuttgart eng zusammen. „Das Design und die Prototypen der Optiken stammen vom ILM und werden mittels Zwei-Photonen-Lithographie gefertigt. Die Stuttgarter Hahn-Schickard-Forscher entwickeln unter anderem ein Verfahren, um die optischen Prototypen mithilfe der Spritzgusstechnik einfach und kostengünstig zu vervielfältigen“, erklärt Becker. Insgesamt sieht er bis zur Anwendung noch eine gute Wegstrecke vor sich und seinen Kolleginnen und Kollegen: „Im Moment feilen wir noch an den Voraussetzungen für eine kommerzielle Produktentwicklung. Für das eigentliche Produktgeschäft suchen wir dann nach geeigneten Partnern.“

Die Bildschirmansicht zeigt mit mehreren Kacheln die Auswertung für den Arzt. Oben rechts ist das Ergebnis der KI-basierten Diagnose angegeben: in diesem Fall „Kein Melanom". Die Kachel darunter zeigt in einer Heatmap mit rotem Hintergrund, worauf die KI bei ihrer Klassifikation fokussiert hat (gelber Bildbereich).  Links daneben in der Kachel „Diagnoseergebnis“ ist ein Foto der Läsion und ihrer Umgebung zu sehen. Die untere Kachel „Punktwolke" zeigt ein 3D-Modell der Läsion.
Auf dem linken Bild zeigt das Nutzerinterface für Ärztin oder Arzt oben rechts die KI-basierte Diagnose „Melanome“, während auf dem rechten Bild das Ergebnis der KI-basierten Diagnose „kein Melanom“ lautet. Die Kachel unterhalb des KI-Diagnoseergebnisses zeigt in einer Heatmap, worauf die KI bei ihrer Klassifikation fokussiert hat (gelber Bildbereich). Damit können Ärztin oder Arzt kontrollieren, ob die KI die korrekte Läsion fokussiert. Links daneben in der Kachel „Diagnoseergebnis“ können Ärztin oder Arzt die Diagnose des KI-Systems überschreiben. Die untere Kachel „Punktwolke“ zeigt ein 3D-Modell der Läsion. © FZI Forschungszentrum Informatik
Seiten-Adresse: https://www.gesundheitsindustrie-bw.de/fachbeitrag/aktuell/ki-fuer-mehrwert-der-digitalen-hautkrebsdiagnostik