Kann Künstliche Intelligenz Brustkrebs besser erkennen als Ärzte?
Brustkrebs ist eine der häufigsten Krebsarten bei Frauen weltweit. Frühe und genaue Diagnosen sind entscheidend, um Leben zu retten. Ultraschalluntersuchungen, insbesondere die zweidimensionale (2D) und die farbkodierte Doppler-Sonografie (CDFI), spielen eine wichtige Rolle bei der Beurteilung von Brustveränderungen. Doch selbst erfahrene Radiologen haben Schwierigkeiten, bestimmte Arten von Brustveränderungen zu unterscheiden. Kann Künstliche Intelligenz (KI) hier Abhilfe schaffen?
Warum ist die Diagnose von Brustveränderungen so schwierig?
Brustveränderungen lassen sich in vier Kategorien einteilen: entzündliche Veränderungen, Adenose (eine gutartige Gewebeveränderung), gutartige Tumore und bösartige Tumore. Jede dieser Kategorien erfordert eine unterschiedliche Behandlung. Doch die Unterscheidung ist nicht einfach.
Zum Beispiel können entzündliche Veränderungen wie die granulomatöse Mastitis (GM) auf dem Ultraschallbild wie ein bösartiger Tumor aussehen. Das führt oft zu unnötigen Biopsien. Auch die sklerosierende Adenose (SA), eine Form der Adenose, weist häufig Merkmale auf, die einem bösartigen Tumor ähneln. Eine falsche Diagnose kann zu Überbehandlung oder verzögerten Therapien führen.
Bisherige Computer-gestützte Diagnosesysteme (CAD) konzentrieren sich meist darauf, gutartige von bösartigen Veränderungen zu unterscheiden. Doch für die Unterscheidung von Adenose und entzündlichen Veränderungen gibt es kaum Lösungen.
Wie kann Künstliche Intelligenz helfen?
Eine aktuelle Studie aus China hat ein neues KI-Modell entwickelt, das Brustveränderungen in die vier klinisch relevanten Kategorien einteilen kann. Das Modell basiert auf einem speziellen Algorithmus, dem Convolutional Neural Network (CNN), und verwendet Ultraschallbilder in Kombination mit farbkodierter Doppler-Sonografie.
Wie wurde die Studie durchgeführt?
Die Studie umfasste Daten von 3.623 Patientinnen aus 13 Krankenhäusern in neun chinesischen Provinzen. Insgesamt wurden 15.648 Ultraschallbilder ausgewertet, die zwischen Januar 2016 und Januar 2018 aufgenommen wurden. Alle Veränderungen wurden durch Biopsien oder Operationen bestätigt.
Die Patientinnen wurden in vier Gruppen eingeteilt:
- Gutartige Tumore: 1.601 Fälle
- Bösartige Tumore: 1.179 Fälle
- Entzündliche Veränderungen: 572 Fälle
- Adenose: 271 Fälle
Die Bilder wurden mit verschiedenen Ultraschallgeräten aufgenommen, um die Vielfalt der Geräte und Untersuchungsprotokolle zu berücksichtigen.
Wie funktioniert das KI-Modell?
Das KI-Modell besteht aus zwei Teilen: einem Erkennungsmodul und einem Klassifizierungsmodul.
-
Erkennungsmodul:
- Merkmalsextraktion: Ein spezielles Netzwerk (ResNet-50) analysiert die Ultraschallbilder und erkennt wichtige Merkmale.
- Regionenvorschlag: Das Modell schlägt Bereiche vor, in denen sich mögliche Veränderungen befinden könnten.
-
Klassifizierungsmodul:
- Modellvarianten: Es wurden drei Varianten getestet:
- 2D-Modell: Nur graustufige Ultraschallbilder.
- 2D-CDFI-Modell: Kombination aus 2D-Bildern und farbkodierter Doppler-Sonografie.
- 2D-CDFI-PW-Modell: Zusätzlich wurden spektrale Doppler-Daten (PW) verwendet.
- Modellvarianten: Es wurden drei Varianten getestet:
Das Modell wurde mit einer speziellen Technik trainiert, um Überanpassung zu vermeiden. Dabei wurden die Bilder gedreht und skaliert, um die Vielfalt der Daten zu erhöhen.
Was sind die wichtigsten Ergebnisse?
Das 2D-CDFI-Modell zeigte die beste Leistung:
- Genauigkeit: 89,2 %
- AUC-Werte:
- Gutartige Tumore: 0,94
- Bösartige Tumore: 0,96
- Entzündliche Veränderungen: 0,80
- Adenose: 0,81
Die Sensitivität und Spezifität lagen bei über 90 % für gutartige und bösartige Tumore. Bei entzündlichen Veränderungen und Adenose waren die Werte niedriger, was auf die geringere Anzahl von Fällen in diesen Kategorien zurückzuführen ist.
Wie schneidet das Modell im Vergleich zu Radiologen ab?
In einem Test mit 50 Bildern übertraf das KI-Modell 37 erfahrene Radiologen:
- KI-Modell: 89,2 % Genauigkeit, 400 ms Verarbeitungszeit (mit GPU).
- Radiologen: Durchschnittlich 30 % Genauigkeit, 314 Sekunden Bearbeitungszeit.
Dieser Unterschied zeigt, dass KI die Diagnose beschleunigen und die Genauigkeit verbessern kann.
Was bedeutet das für die Praxis?
- Rolle der farbkodierten Doppler-Sonografie: Die Integration von CDFI verbesserte die Genauigkeit, da sie Gefäßmuster erkennt, die auf bösartige Tumore hinweisen können.
- Robustheit des Modells: Das Modell zeigte eine konsistente Leistung über verschiedene Geräte und Größen von Veränderungen hinweg.
- Integration in den klinischen Alltag: Die Echtzeitverarbeitung ermöglicht eine nahtlose Integration in die klinische Praxis.
Was sind die Grenzen der Studie?
- Datenungleichgewicht: Entzündliche Veränderungen und Adenose waren unterrepräsentiert, was die Sensitivität beeinflusste.
- PW-Bildgebung: Es wurden nur 222 PW-Bilder verwendet, was die Aussagekraft dieser Methode einschränkt.
- Prospektive Validierung: Weitere Studien sind notwendig, um die Leistung in der Praxis zu bestätigen.
Fazit
Diese Studie zeigt, dass Künstliche Intelligenz, insbesondere in Kombination mit farbkodierter Doppler-Sonografie, eine hohe Genauigkeit bei der Klassifizierung von Brustveränderungen erreichen kann. Das KI-Modell übertrifft menschliche Radiologen in Geschwindigkeit und Präzision und bietet somit ein vielversprechendes Werkzeug zur Verbesserung der Diagnostik.
For educational purposes only.
doi.org/10.1097/CM9.0000000000001329