- GND
- 129669806
- ORCID
-
0000-0001-9712-0225
- SCOPUS
- 55835084400
- SCOPUS
- 57204642659
- SCOPUS
- 57211428659
- SCOPUS
- 57549655600
- SCOPUS
- 7202668837
- Sonstiges
- der Hochschule zugeordnet
- GND
- 1236817931
- ORCID
-
0000-0003-1958-1549
- SCOPUS
- 57204645098
- Sonstiges
- der Hochschule zugeordnet
- SCOPUS
- 57214595383
- Sonstiges
- der Hochschule zugeordnet
Abstract in Deutsch:
Deep Learning Ansätze haben das Potenzial, in der medizinischen computergestützten Diagnostik (CAD) zur Unterstützung des klinischen Entscheidungsprozesses eingesetzt zu werden. Deep Learning Netzwerke neigen jedoch dazu, Black Boxes zu sein, da ihre Entscheidungen oft nicht transparent sind. Dies stellt ein Problem dar, da die Qualität und Zuverlässigkeit von CAD-Software überprüft werden muss, da sie möglicherweise medizinische Behandlungsentscheidungen beeinflussen könnte. Ziel dieser Arbeit war es daher, Ansätze zur Erklärung der Entscheidungen von CNN Klassifikatornetzwerken mit einer Anwendung auf Computertomographie (CT)-Tumorbildern zu untersuchen. Dies wurde an einem kolorektalen Tumordatensatz (Wachstumsvorhersage) und dem LIDC Lungenkrebsdatensatz [Armato III et al., 2011] (Malignitätsvorhersage) durchgeführt. Darüber hinaus lag der Schwerpunkt auf kleinen Datensätzen mit geringer Auflösung und Netzwerken mit begrenzter Tiefe. In der Untersuchung wurden die state-of-the-art Erklärungsmethoden LRP [Bach et al., 2015] und SHAP [Lundberg und Lee, 2017] analysiert. Diese Methoden folgen einem Analyseansatz, doch wurde in dieser Arbeit argumentiert, dass Syntheseansätze bessere Erklärungen liefern könnten. Daher wurden die beiden Synthesemethoden GAN Constrained Activation Maximization (GCAM) und GAN Transfer Analysis and Synthesis (GTAS) vorgeschlagen. Um den Stand der Technik und die vorgeschlagenen Methoden zu evaluieren, wurden Experimente wie eine visuelle Bewertung und die Pixeleliminierung durchgeführt. Für LRP und SHAP wurde festgestellt, dass sie Erklärungen schufen, die visuell schwer zu interpretieren waren. Bei GCAM und GTAS hingegen ergaben sich Erklärungen, die visuell leichter zu interpretieren waren. Während das Pixel-Eliminationsexperiment eine höhere Leistung für LRP und SHAP anzeigte, erzielten GCAM und GTAS eine scheinbar besser interpretierbare visuelle Erklärung. Eine diskutierte Ursache für diese Beobachtung war eine mögliche Dissonanz zwischen algorithmischer Relevanz und menschlichem Verständnis. Die Schlussfolgerung ist, dass weitere Experimente durchgeführt werden müssen, um diese Methoden weiter zu bewerten. Letztlich weisen die interpretierbaren visuellen Erklärungen auf ein Potential von Syntheseansätzen hin, das untersucht werden sollte.