Immer häufiger wird künstliche Intelligenz eingesetzt, um medizinische Bilder zu analysieren. Im Bereich der Röntgenbilder funktioniert diese Analyse sehr gut, KI-Modelle erkennen zuverlässig Lungenerkrankungen, Knochenbrüche oder Tumorerkrankungen. Die Radiologin/den Radiologen oder die/den MTR ersetzt die KI nicht, aber sie ist eine große Unterstützung in diesem Bereich. Anders sieht es bei dreidimensionalen Bildern aus, wie zum Beispiel CT- oder MRT-Bildern. Mit der Vielschichtigkeit und der Vielzahl an Modalitäten sind diese Bilder bisher noch eine Herausforderung für die KI.
Interaktive Segmentierung
Eine Aufgabenstellung des Wettbewerbs lautete, dass die KI-Modelle verschiedene Körperstrukturen erkennen und markieren können sowie auf Rückmeldungen von Nutzerinnen und Nutzern reagieren sollen. So können die Ergebnisse verbessert werden, um insgesamt die Arbeit der medizinischen Forschung und Diagnostik schneller und verlässlicher zu machen.
Das KI-Modell des Würzburger Teams kann dreidimensionale medizinische Bilddaten aus CT-, MRT- und Ultraschalluntersuchungen automatisch segmentieren und „interaktiv verfeinern“. Mit Segmentierung ist die Einteilung des Bildes in verschiedene Bereiche und, bei Bedarf, die Hervorhebung bestimmter Strukturen gemeint (ein Tumor beispielsweise soll gelb markiert werden). Interaktive Verfeinerung bezeichnet die Unterstützung durch Nutzerinnen und Nutzer, indem sie selbst übersehen Strukturen markieren und damit die Ergebnisse verbessern. Das System lernt dadurch und passt anhand der händischen Markierung die eigene Segmentierung an.
Technisch überzeugend
Technisch basiert das Modell auf bestehenden Modellen, die für die Videoanalyse entwickelt worden waren. „Wir haben diese Architektur für den medizinischen Bereich angepasst und um Mechanismen erweitert, die eine konsistente Segmentierung über mehrere Bildschnitte hinweg ermöglichen“, erläutert Dr. Adrian Krenzer, Informatiker und Leiter einer Nachwuchsforschungsgruppe der Julius-Maximilians-Universität-Würzburg.
Ausgetragen wurde der Wettbewerb im Rahmen der wissenschaftlichen Konferenz „Computer Vision“. Das Würzburger Modell erhielt in allen wichtigen Kategorien wie Interaktivität, Genauigkeit und Laufzeit Bestwerte.
Quelle: idw
Artikel teilen




