[Paper Express] WACV2023 - CellTranspose: Kleine Beispieldomänenanpassung für die Zellinstanzsegmentierung

[Paper Express] WACV2023 - CellTranspose: Kleine Beispieldomänenanpassung für die Zellinstanzsegmentierung

【Originaltext】 : CellTranspose: Domänenanpassung mit wenigen Schüssen für die Segmentierung von Mobilfunkinstanzen

获取地址:https://openaccess.thecvf.com/content/WACV2023/papers/Keaton_CellTranspose_Few-Shot_Domain_Adaptation_for_Cellular_Instance_Segmentation_WACV_2023_paper.pdf

Blogger-Keywords: Small Sample Learning, semantische Segmentierung, Domänenanpassung

Empfohlene verwandte Papiere:

- 无

Zusammenfassung:

Die automatische Segmentierung von Zellinstanzen ist ein Prozess, der die biologische Forschung in den letzten zwei Jahrzehnten beschleunigt hat, und die jüngsten Fortschritte haben zu qualitativ hochwertigeren Ergebnissen mit weniger Aufwand seitens der Biologen geführt. Die meisten aktuellen Bemühungen konzentrieren sich auf den vollständigen Ausschluss von Forschern durch die Generierung hochgradig verallgemeinerbarer Modelle. Allerdings scheitern diese Modelle immer dann, wenn es um neue Daten geht, die eine andere Verteilung aufweisen als die für das Training verwendeten Daten. In dieser Arbeit nähern wir uns dem Problem nicht mit einem Ansatz, der die Verfügbarkeit großer Mengen von Zieldaten und Rechenleistung für das erneute Training voraussetzt, sondern wir sprechen das größere Problem an, eine Methode zu entwerfen, die ein Minimum an neuen annotierten Daten und Trainingszeit erfordert . Zu diesem Zweck entwerfen wir einen spezialisierten Kontrastverlust, der sehr bequem wenige annotierte Proben verwendet. Umfangreiche Ergebnisse zeigen, dass 3 bis 5 Annotationen zu Modellen mit Genauigkeiten führen, die: 1) kovariate Verschiebungseffekte signifikant mildern, 2) mit anderen Anpassungsmethoden übereinstimmen oder diese übertreffen, 3) sogar mit Methoden, die vollständig auf die Zielverteilung neu trainiert wurden. Das adaptive Training dauert nur wenige Minuten und ebnet den Weg für ein Gleichgewicht zwischen Modellleistung, Rechenanforderungen und der Notwendigkeit von Anmerkungen auf Expertenebene.

Einführung:

Mit zunehmender Reife unseres Fachgebiets wird die automatisierte Analyse wissenschaftlicher Bildgebungsdaten durch Computer-Vision-Techniken immer überzeugender. Um die wissenschaftliche Entdeckung zu beschleunigen, wurden kürzlich auf neuronalen Netzwerken basierende Methoden entwickelt, um einzelne Zellinstanzen in laborgenerierten Bilddaten automatisch zu segmentieren und zu zählen [44,51,14]. Diese Art der Datenerfassung weist aufgrund der Vielfalt der verwendeten Bildgebungsmodalitäten, der verschiedenen Gewebearten und ihrer Verarbeitung eine erhebliche Variabilität auf.

Gegenwärtige aufgabenspezifische Zellinstanzsegmentierungsverfahren basieren hauptsächlich auf überwachtem Lernen. Sie werden an großen Datensätzen geschult und versuchen, die Vielfalt der neuen Daten, mit denen sie arbeiten werden, auszugleichen. Die zu verarbeitenden neuen Daten werden jedoch höchstwahrscheinlich nicht auf die gleiche Weise verteilt wie die Daten, die zum Trainieren des Modells verwendet werden, und als solche werden sie die Aufgabe häufig mit enttäuschender Genauigkeit ausführen. Um dieses Problem der Kovariatenverschiebung anzugehen [42], besteht die offensichtliche Lösung darin, das Modell neu zu trainieren, was teuer und zeitaufwändig ist, da es eine manuelle Annotation großer Mengen neuer Zieldaten erfordert, die wir automatisieren möchten. Ein weiterer Ansatz ist die Verwendung von Domänenanpassungsmethoden, die versuchen, das Modell an die Zieldatenverteilung anzupassen. Aktuelle domänenadaptive Methoden zur Segmentierung sind weitgehend an Bildgebungsmodalitäten oder spezifische Aufgaben oder Anwendungen angepasst, die sich stark von der Segmentierung von Zellinstanzen unterscheiden [15, 53]. Einige vielversprechende Arbeiten haben dieses Problem auf unüberwachte Weise angegangen [26, 27]. Diese Methoden setzen jedoch alle voraus, dass eine große Menge an Zieldaten vorhanden ist und ein relativ intensives Training durchgeführt werden kann, um das Modell anzupassen.

In dieser Arbeit befürworten wir eine praktischere und skalierbarere Lösung für die Notwendigkeit, weit über Distributionen hinaus zu generalisieren. Wir gehen davon aus, dass das zum Segmentieren von Instanzen (z. B. Zellkörpern, Membranen oder Kernen) verwendete Modell auf dem Quelldatensatz trainiert wurde. Dann stimmen wir das Modell mit einem geringen Trainingsbudget ab, indem wir nur wenige Beispiele des Zieldatensatzes annotieren, um es gut auf die neue Verteilung zu verallgemeinern. Wir stellen CellTranspose vor, eine neue Methode, die das gerade beschriebene Paradigma implementiert, für eine überwachte Adaption von Zellinstanzsegmentierung in wenigen Schüssen. Die Methode baut auf modernsten Modellen auf, und wir führen neue Verluste und Trainingsverfahren zur schnellen Anpassung an neue Daten ein.

Unser Framework ermöglicht eine angemessene Segmentierung einer breiten Palette von Daten, die über die Möglichkeiten aktueller allgemeiner Methoden hinausgeht. Wir zeigen, dass Modelllernen zum Generieren von High-Fidelity-Segmentierungen nur eine kleine Anzahl von Anmerkungen zum Zieldatensatz erfordert, und demonstrieren dies an 2-D- und 3-D-Daten. Insbesondere reichen wenige annotierte Proben aus, um ein vergleichbares Anpassungsniveau zu unüberwachten Anpassungsmodellen zu erreichen. Darüber hinaus bietet CellTranspose ein schnelleres Trainingsprotokoll im Vergleich zum Training eines Modells von Grund auf mit ähnlicher Genauigkeit.

Bildbeschreibung hier einfügen

Abb. 1. Variabilität in Mikroskopiedaten. Die Bildbeispiele verdeutlichen die Variabilität in Zellbildern. Von links nach rechts: humane U20S-Zellen, gefärbt mit Hoechst und Phalloidin, von BBBC006 [29], mit Phalloidin und DAPI markierte Neuroblastomzellen von Cell Image Library [60], GI-Gewebezellen-CODEX-Konsortium von Tissuenet [14] Detektion durch Bildgebung; Brustkrebszellen, gefärbt mit Hämatoxylin und Eosin (H&E) aus TNBC [34]

Bildbeschreibung hier einfügen

Abb. 2. Architektur der Methode. Eine umfassende Veranschaulichung unserer Methode zur Segmentierung von zellulären Instanzen mit wenigen Schüssen basierend auf kontrastivem Lernen.

【Community-Besuch】

Bild【Paper Express | Vorgestellt】

BildLesen Sie den Originalartikel. Besuchen Sie die Community

https://bbs.csdn.net/forums/paper

Supongo que te gusta

Origin blog.csdn.net/qq_36396104/article/details/128840837
Recomendado
Clasificación