Erklärbare KI: Zwischenbilanz des Projekts "NEUPA"

Quelle: aus Simulationsumgebung CARLA

Im Verbundprojekt "Neue Erklärbarkeit unterstützt durch Weltmodelle zur Prädiktion beim Autonomen Fahren (NEUPA)" wird erforscht, wie man die Methoden der Künstlichen Intelligenz verbessern kann, um die entstehenden Systemverhalte auch erklären zu können. Als Anwendungsfall wird das autonome Fahren betrachtet und dabei speziell, ob Fußgänger- und Radfahrerverhalten von Künstlichen Neuronalen Netzen vorhergesagt werden können.

Zwar wurde der Projektstart am 01.04.2020 durch die Pandemie erheblich erschwert, aber im bald vergangenen ersten Projektjahr konnten dennoch erste gute Ergebnisse erzielt werden. So wurde unter anderem eine Toolchain aufgebaut, um Künstliche Neuronale Netze trainieren zu können. Dies geschieht z.B. mit Daten aus einer Simulation, wie in der Abbildung gezeigt. Dort überquert ein Fußgänger vor einem Auto die Straße. Um z.B. Fußgängerverhalten korrekt mit KI-Methoden modellieren zu können, werden viele Daten benötigt. Diese Bilddaten typischer Verhalten können teilweise auch in der Simulation generiert werden. Zudem bereiten wir aufwändige Verfahren zum Motion Capturing von Fußgängerverhalten vor. Ein weiterer Aspekt des Projekts ist die Hardware-Beschleunigung der intensiven Rechenoperationen von KI-Methoden mittels sog. FPGAs (Field Programmable Gate Array), um später die Berechnungen im Auto durchführen zu können. Insbesondere arbeiten die Kooperationspartner des Instituts für Technische Informatik, geleitet von Prof. Heiko Hamann, und die IAV GmbH (Gifhorn) am eigentlichen Kern des Projekts: die Entwicklung neuer Methoden der erklärbaren KI (“XAI”), um im beispielhaften Anwendungsfall des autonomen Fahrens auch erklären zu können, warum das autonome Fahrzeug z.B. gebremst hat. Letztlich sollen diese Methoden eine Zertifizierung KI-getriebener Produkte ermöglichen.

Weitere Informationen zu dem vom BMBF geförderten Projekt finden Sie auf folgender Webseite:

https://www.neupa.net