Explainable clinical decision support and computer aided diagnosis
Ilmenau, 2020
2020Master thesis
Technische Universität Ilmenau (1992-) » Department of Computer Science and Automation (1992-) » Institute for Computer and Systems Engineering (2005-) » Fachgebiet Neuroinformatik und Kognitive Robotik (2005-)
Title in English:
Explainable clinical decision support and computer aided diagnosis
Degree supervisor:
Groß, Horst-MichaelTU
GND
129669806
ORCID
0000-0001-9712-0225ORCID iD
SCOPUS
55835084400
SCOPUS
57204642659
SCOPUS
57211428659
SCOPUS
57549655600
SCOPUS
7202668837
Other
connected with university
;
Katzmann, AlexanderTU
GND
1236817931
ORCID
0000-0003-1958-1549ORCID iD
SCOPUS
57204645098
Other
connected with university
;
Aganian, DustinTU
SCOPUS
57214595383
Other
connected with university
Place of publication:
Ilmenau
Year of publication:
2020
Extent:
154 Seiten
PPN:
Language of text:
English
Type of resource:
Text
Part of statistic:
No

Abstract in German:

Deep Learning Ansätze haben das Potenzial, in der medizinischen computergestützten Diagnostik (CAD) zur Unterstützung des klinischen Entscheidungsprozesses eingesetzt zu werden. Deep Learning Netzwerke neigen jedoch dazu, Black Boxes zu sein, da ihre Entscheidungen oft nicht transparent sind. Dies stellt ein Problem dar, da die Qualität und Zuverlässigkeit von CAD-Software überprüft werden muss, da sie möglicherweise medizinische Behandlungsentscheidungen beeinflussen könnte. Ziel dieser Arbeit war es daher, Ansätze zur Erklärung der Entscheidungen von CNN Klassifikatornetzwerken mit einer Anwendung auf Computertomographie (CT)-Tumorbildern zu untersuchen. Dies wurde an einem kolorektalen Tumordatensatz (Wachstumsvorhersage) und dem LIDC Lungenkrebsdatensatz [Armato III et al., 2011] (Malignitätsvorhersage) durchgeführt. Darüber hinaus lag der Schwerpunkt auf kleinen Datensätzen mit geringer Auflösung und Netzwerken mit begrenzter Tiefe. In der Untersuchung wurden die state-of-the-art Erklärungsmethoden LRP [Bach et al., 2015] und SHAP [Lundberg und Lee, 2017] analysiert. Diese Methoden folgen einem Analyseansatz, doch wurde in dieser Arbeit argumentiert, dass Syntheseansätze bessere Erklärungen liefern könnten. Daher wurden die beiden Synthesemethoden GAN Constrained Activation Maximization (GCAM) und GAN Transfer Analysis and Synthesis (GTAS) vorgeschlagen. Um den Stand der Technik und die vorgeschlagenen Methoden zu evaluieren, wurden Experimente wie eine visuelle Bewertung und die Pixeleliminierung durchgeführt. Für LRP und SHAP wurde festgestellt, dass sie Erklärungen schufen, die visuell schwer zu interpretieren waren. Bei GCAM und GTAS hingegen ergaben sich Erklärungen, die visuell leichter zu interpretieren waren. Während das Pixel-Eliminationsexperiment eine höhere Leistung für LRP und SHAP anzeigte, erzielten GCAM und GTAS eine scheinbar besser interpretierbare visuelle Erklärung. Eine diskutierte Ursache für diese Beobachtung war eine mögliche Dissonanz zwischen algorithmischer Relevanz und menschlichem Verständnis. Die Schlussfolgerung ist, dass weitere Experimente durchgeführt werden müssen, um diese Methoden weiter zu bewerten. Letztlich weisen die interpretierbaren visuellen Erklärungen auf ein Potential von Syntheseansätzen hin, das untersucht werden sollte.