Masterprüfung mit Defensio, Patrick Pollek

26.01.2024 16:00 - 17:30

Universität Wien

Besprechungraum 4.34

Währinger Str. 29

1090 Wien

26.01.2024, 16:00 Uhr
Universität Wien
Besprechungraum 4.34
Währinger Str. 29
1090 Wien

Titel: „Interpreting Neural Networks Under Latent Confounding“

Kurzfassung:
Modelle des maschinellen Lernens werden zunehmend in verschiedenen Bereichen für
entscheidungsintensive Prozesse hohen Risikos eingesetzt. Obwohl diese Modelle oft eine
hohe Vorhersagegenauigkeit aufweisen, führt ihre komplexe Natur häufig zu einem Mangel
an Interpretierbarkeit, was Barrieren für das menschliche Verständnis schafft und ethische
Fragen aufwirft. In diesem Kontext wirken Störfaktoren (Confounder) als ein erschwerender
Faktor, der die Interpretierbarkeit dieser Modelle weiter untergraben kann und
sich auf Interpretationstechniken auswirken kann. Diese oft versteckten Faktoren können
sowohl unabhängige als auch abhängige Variablen beeinflussen und die Zuverlässigkeit
und Vertrauenswürdigkeit jeder abgeleiteten Interpretation beeinträchtigen. Üblicherweise
regulieren oder berücksichtigen Forscher Störfaktoren, vernachlässigen jedoch oft interpretative
Analysen solcher Modelle. Wenn interpretative Studien durchgeführt werden,
bleibt die Auswirkung der Störfaktoren auf die Interpretationen weitgehend unerforscht
und nicht quantifiziert. Daher besteht eine Untersuchungslücke im Verständnis, wie
das Vorhandensein von konfundierenden Variablen die Interpretierbarkeit der Modelle
beeinflussen könnte. Um diese Lücke zu schließen, bewertet diese Arbeit den Einfluss
von konfundierenden Variablen auf die Interpretation von neuronalen Netzwerken in
einem überwachten Umfeld, indem ICE-Diagramme und SHAP-Wert-Visualisierungen
für neuronale Netzwerke gegenübergestellt und analysiert werden. Experimente zeigen,
dass einfache vorwärts gerichtete neuronale Netzwerke empfindlich auf versteckte Konfundierung
reagieren, insbesondere in Bezug auf die Relevanz der Variablen. Um diesen
Problemen entgegenzuwirken, wird ein Modell auf Basis eines variationalen Autoencoders
vorgestellt, das nahelegt, dass die Interpretationen aus diesem neuen Modell konsistenter
und intuitiver sind als die aus anderen Modellen, wie anhand von verschiedenen
Datensätzen verifiziert wurde. Die Ergebnisse zeigen, dass konfundierende Variablen den
größten Einfluss auf die Bedeutsamkeit von Varaiblen haben, die stark korreliert sind.
 

Organiser:

SPL 5

Location:

Besprechungsraum 4.34

Währinger Straße 29
1090 Wien