Transparenz und Interpretierbarkeit erlernter Wissensrepräsentationen in künstlichen neuronalen Netzen
Die Dissertation von Dr.-Ing. Richard Meyes untersucht die Transparenz und Interpretierbarkeit erlernter Wissensrepräsentationen in künstlichen neuronalen Netzen. Der Schwerpunkt der Untersuchung liegt dabei auf der Anwendung der Neuronenablation, einem aus den Neurowissenschaften bekannten Verfahren, dessen Transfer in das Forschungsgebiet der Künstlichen Intelligenz untersucht wird.
Wir haben Richard zu seiner Dissertation befragt:
In welchem Kontext ist deine Dissertation entstanden? Welche Projekte oder anderen Faktoren haben deine Dissertation besonders beeinflusst?
Die Idee zum Dissertationsthema wurde einerseits stark durch meine Zeit als wissenschaftlicher Mitarbeiter am Institut für Neurowissenschaften und Medizin des Forschungszentrums Jülich in den Jahren 2013-2015 geprägt. In dieser Zeit habe ich darüber geforscht, wie das Gehirn visuelle Informationen verarbeitet, die wir tagtäglich mit unseren Augen wahrnehmen. Dabei ging es insbesondere um das Zusammenspiel von Neuronen im visuellen Kortex und wie dieses Zusammenspiel mit den sogenannten sakkadischen Augenbewegungen, die für Primaten charakteristisch sind, synchronisiert wird.
Nach meiner Zeit am Forschungszentrum arbeitete ich als Doktorand am Institut für Informationsmanagement im Maschinenbau der Fakultät für Maschinenwesen der RWTH Aachen und fand meinen Weg in die Ingenieurwissenschaften mit Berührungspunkten zur deutschen Industrie und Wirtschaft. Vor diesem Hintergrund beschäftigte ich mich nicht mehr mit biologischen, sondern mit maschinellen lernenden Systemen. Seitdem bin ich bis heute im Forschungsgebiet der Künstlichen Intelligenz tätig und habe im Rahmen meiner Dissertation die beiden Forschungsfelder Neurowissenschaften und Künstliche Intelligenz ein Stück weit zusammengeführt.
Welchen Beitrag leistet deine Arbeit zum Forschungsfeld?
Der wohl größte Beitrag der Arbeit besteht in der Veröffentlichung des ersten Papers der Dissertation mit dem Titel „Ablation Studies in Artificial Neural Networks“, welches bis heute ca. 275 mal zitiert wurde und die methodische Grundlage für alle weiteren Arbeiten der Dissertation im Jahr 2019 gelegt hat. In der Arbeit habe ich erstmals das Prinzip der neurowissenschaftlich inspirierten Ablationen auf einzelne Neuronen und Neuronengruppen in künstlichen neuronalen Netzen angewendet und konnte zeigen, dass Neuronen anhand ihrer spezifisch ausgebildeten Funktionen als Beitrag zu einer erlernten Aufgabe klassifiziert werden können.
Aufbauend auf diesem methodischen Beitrag habe ich dann eine Reihe unterschiedlichster neuronaler Netze in ihrer Anwendung im industriellen Bereich untersucht und konnte beispielsweise nachweisen, welche Teile eines künstlichen neuronalen Netzes für die Erkennung einzelner handgeschriebener Zahlen, für die Steuerung eines Aktors zum Ausbalancieren einer Pendelstange oder für die Erkennung von Rissen in Sensordaten eines Tiefziehwerkzeugs zur Herstellung von Karosserieteilen verantwortlich sind. So konnte ich transparent machen, welche Aufgabe einzelne Neuronen und ganze Teilbereiche eines künstlichen neuronalen Netzes für eine erlernte Aufgabe haben.
Wie geht es nun für dich und das Thema weiter?
Das Thema Transparenz und Interpretierbarkeit von künstlichen neuronalen Netzen ist nach wie vor von großem Interesse für Anwendungen im industriellen Umfeld. Dort ist es insbesondere für Ingenieure, die volle Transparenz über die verwendeten Methoden und Verfahren gewohnt sind, von entscheidender Bedeutung, einer KI vertrauen zu können, die im produktiven Betrieb der Wertschöpfung agiert. Das Thema ist daher ein Dauerbrenner in den Projekten unseres Forschungsbereichs „Industrial Deep Learning“ und begleitet uns mehr oder weniger fokussiert im Alltag.