Editorial

Tipp 250: Automatisierte Bildanalyse

(08.09.2023) Biologen und Biologinnen ohne umfangreiche Informatik-Kenntnisse sind mit der Bildauswertung durch maschinelle Lernprogramme schnell überfordert. Mit der Open-Source-Software MIA kommen aber auch sie zurecht.

Nicht erst seit ChatGPT verwenden Biowissenschaftler und Biowissenschaftlerinnen künstliche Intelligenz (KI), um zum Beispiel Mikroskopie-Daten zu analysieren. Moderne Forschungs-Mikroskope generieren mit wenigen Mausklicks riesige Berge von Bilddaten, deren manuelle Auswertung oft mühsam, zeitaufwendig und repetitiv ist. Deep-Learning-Verfahren können Forschende dabei unterstützen, Objekte in den Bildern automatisch zu erkennen und zu analysieren, etwa Zellen. Die Entwicklung der dazu nötigen Algorithmen erfordert aber nicht nur umfangreiche Erfahrung in der Mathematik, sondern auch Programmierkenntnisse.

Control-Panel von MIA
Das Control Panel ist die Steuerzentrale des MIA-Interfaces. Es enthält zahlreiche Tools und Funktionen für die Analyse der in der Image-View-Zone dargestellten Bilder. Die Status Bar zeigt Informationen zu gegenwärtigen Aktionen der MIA-Software. Foto: Nils Körber (Größere Darstellung)

Es geht auch ohne Programmieren

Die von mir am Bundesinstitut für Risikobewertung (BfR) und Zentrum für Künstliche Intelligenz in der Public-Health-Forschung des Robert Koch-Instituts in Berlin entwickelte Software MIA (Microscopic Image Analyzer) versetzt Anwender und Anwenderinnen ohne Programmierkenntnisse in die Lage, Deep-Learning-Algorithmen mit den eigenen Daten zu trainieren (Cell Rep. Methods 3: 100517). Die Forschenden müssen dazu nur die Strukturen markieren, die die Software erkennen soll. Der Algorithmus lernt anhand der markierten Objekte, wo ähnliche Objekte in anderen Bildern enthalten sind. Je mehr Objekte eines bestimmten Typs die Software als Trainingsdaten erhält, desto besser spürt sie diese auch in unbekannten Bildern auf.

Die MIA-Software trainiert mit den Mikroskopie-Bildern des Anwenders ein neuronales Netz. Die künstlichen Neuronen des Netzes sind untereinander verbunden. Jede einzelne Verbindung ist gewichtet und hat dadurch eine gewisse Stärke. Im Verlauf des Trainings passen sich die Gewichtungen solange an, bis eine gewünschte Zielausgabe erreicht ist. Das untrainierte Netz erzeugt zu Beginn zufällige Ausgaben. In jedem weiteren Trainingsschritt werden die Gewichtungen des Netzes angepasst, bis das Programm die gestellte Aufgabe korrekt löst – etwa das zielsichere Erkennen einer bestimmten Zelle.

Für das Training markiert der Nutzer mithilfe der MIA-Software Bildausschnitte, bestimmte Zellen oder Gewebe. Die Software enthält dazu verschiedene Markierungswerkzeuge, zum Beispiel Freihand-, Polygon- und semi-automatisierte Tools. Der Anwender kann zwischen zwei oder mehreren Klassen wählen und verschiedene Zelltypen parallel markieren. Hat er ausreichend viele Bilder markiert, beginnt das Training des neuronalen Netzes. Die Forschenden können dazu aus vielen verschiedenen Netzwerkarchitekturen und Parametern (im Kontext von Deep Learning sogenannte Hyperparameter) auswählen. Da die Software explizit für Personen ohne Erfahrung im maschinellen Lernen konzipiert wurde, liefern bereits die voreingestellten Werte ohne Anpassung gute Ergebnisse. Erfahrene Nutzer und Nutzerinnen können aber auch fortgeschrittene Einstellungen vornehmen, um das Maximale aus den Daten herauszuholen. Nebenbei können sie so auch Erfahrung im Umgang mit neuronalen Netzen sammeln und erhalten einen Einblick in deren Fähigkeiten und Limitierungen.

Beispielbild mit identifizierten Gewebearealen
DIdentifizierte Gewebeareale auf einem ausgewählten Slide. Foto: Nils Körber (Größere Darstellung)

Differenziertes Training

MIAs neuronale Netze können für verschiedene Bildanalyse-Aufgaben trainiert werden, die unterschiedlich komplex sind.

Die Klassifizierung von Bildern weist jedem Bild eine bestimmte Klasse zu. Auf diese Weise kann beispielsweise kanzerogenes von gesundem Gewebe unterschieden werden. Die Analyse enthält aber keine Informationen zur Position, Größe oder Form – die Ergebnisse lassen also keine Rückschlüsse mehr darüber zu, wo sich eine relevante Region im Bild befindet.

Im Gegensatz dazu nutzt die Objekterkennung auch Informationen zur Position. Auf diese Weise lassen sich neuronale Netze für die quantitative Analyse trainieren, mit der man zum Beispiel bestimmen kann, wie viele Objekte in einem Bild vorhanden sind und wo sich diese befinden.

Die Segmentierung weist schließlich jedem Pixel eines Bildes eine Klasse zu, sodass sich auch die Form und Größe eines Objekts bestimmen lassen. Sie liefert die meisten Informationen über die zu erkennenden Objekte; die Erzeugung der auf das Pixel genau markierten Trainingsdaten ist aber auch am aufwendigsten.

Abschließend können Objekte, die per Segmentierung oder Objekterkennung erkannt wurden, zeitlich verfolgt werden. Bei diesem Tracking werden gleiche Objekte zu verschiedenen Zeitpunkten identifiziert, um ihre Bewegungen nachvollziehen zu können. Die Zuordnung der Objekte zu unterschiedlichen Zeitpunkten basiert auf der Qualität der vorangegangenen Objekterkennung beziehungsweise Segmentierung. Das Tracking erlaubt beispielsweise Untersuchungen der Zellmigration oder die Bestimmung der Migrationsgeschwindigkeit. Verschiedene Zelltypen können dabei auch parallel getrackt werden.

Die Zahl der Bilder, die benötigt werden, um ein neuronales Netz darin zu trainieren, bestimmte Objekte zu erkennen, variiert stark. Die Menge hängt insbesondere davon ab, wie schwierig sich die Objekte auseinander halten lassen. Für die Unterscheidung von Vorder- und Hintergrund in Fluoreszenz-Bildern braucht man eventuell nur wenige Bilder. Um aber subtile phänotypische Unterschiede zwischen ähnlichen Zellen zu finden, sind möglicherweise Hunderte Bilder nötig.

MIA enthält für alle Architekturen auch vortrainierte Modelle, die eine Anpassung an ein spezielles Problem mit wenigen markierten Bilden ermöglichen (sogenanntes Transfer Learning). Da die Markierung vieler Bilder sehr aufwendig ist, wird ein iteratives Vorgehen empfohlen. Bei diesem werden zunächst wenige Bilder markiert, um damit ein neuronales Netz zu trainieren, das dann zur Vorhersage von weiteren Bildern verwendet wird. Fehler in den vorhergesagten Bildern können mithilfe von MIA korrigiert und zu den Trainingsdaten hinzugefügt werden. Hierdurch lässt sich ohne ausufernden Markierungsaufwand iterativ ein immer besser werdendes Modell erzeugen.

Läuft auf jedem Rechner

Prinzipiell kann MIA auf Computern mit Linux- oder Windows-Betriebssystemen installiert werden, die Software funktioniert grundsätzlich auch ohne Grafikprozessor (GPU). Wenn neuronale Netze mit MIA trainiert werden sollen, ist aber eine leistungsstarke GPU empfehlenswert, die das Training massiv beschleunigt.

Bei Bildern, die sich mit relativ geringem Aufwand auch ohne Deep Learning analysieren lassen, wie zum Beispiel die Trennung eines Fluoreszenzsignals vom Hintergrund durch Thresholding kann eine manuelle Lösung oder eine andere Software schneller zum Erfolg führen. MIA lohnt sich insbesondere dann, wenn genügend Trainingsbilder vorhanden sind beziehungsweise mit geringem Aufwand erzeugt werden können.

Nils Körber