Einblicke in die Black Box der Künstlichen Intelligenz

Patrick Krauss
Dr. Patrick Krauss, Leitung Cognitive Computational Neuroscience Group (Bild: Patrick Krauss)

FAU-Forschende haben Datenverarbeitung mit farbigen Punktwolken sichtbar gemacht

Bei vielen Banken, Versicherungen und Online-Händlern treffen selbstlernende Computeralgorithmen Entscheidungen, die sich massiv auf die Kunden auswirken. Wie die Algorithmen der Künstlichen Intelligenz (KI) ihre Eingabedaten intern repräsentieren und verarbeiten, ist jedoch noch weitgehend unbekannt. Forschende des Lehrstuhls für Mustererkennung und der Cognitive Computational Neuroscience Group der Friedrich-Alexander-Universität Erlangen-Nürnberg (FAU) sowie des Neurowissenschaftlichen Labors der HNO-Klinik am Universitätsklinikum Erlangen, der Aix-Marseille Université in Marseille, Frankreich, und der York University in Toronto, Kanada  haben sich des „Black-Box Problems der Künstlichen Intelligenz“ angenommen und ein Verfahren entwickelt, das die Prozesse sichtbar macht. Die Ergebnisse wurden in der Fachzeitschrift Neural Networks publiziert.

Nicht nachvollziehbare Entscheidungen

„Was wir heute als Künstliche Intelligenz bezeichnen, ist zurückzuführen auf tiefe, künstliche neuronale Netze, die grob der menschlichen Gehirnfunktion nachempfunden sind“, sagt Dr. Patrick Krauss von der Cognitive Computational Neuroscience Group der FAU. Wie bei einem Kleinkind, das seine Muttersprache lernt,  ohne sich den Grammatikregeln bewusst zu sein, können die KI-Algorithmen durch das selbstständige Abgleichen vieler Eingabedaten lernen, die richtige Auswahl zu treffen. Die Leistungen beim Erkennen von Mustern seien erstaunlich, sagt Dr. Krauss. Doch wisse man nicht, wie die neuronalen Netze schrittweise vorgehen. „Aus ethischen Gründen müssen die Entscheidungen der KI jedoch nachvollziehbar sein.“  Man denke nur an Therapieentscheidungen aufgrund einer KI-gestützten, medizinischen Diagnose. Auch muss die Frage geklärt werden, ob die KI eines autonomen Fahrzeugs bei einer unvermeidlichen Kollision eher das Leben des Autofahrers oder des Fußgängers schützen soll.

Künstliche neuronale Netze (KNN) sind mathematische Nachbildungen der Reizverarbeitung im Gehirn. Sie bestehen aus miteinander verbundenen künstlichen Neuronen. Anstelle der elektrischen oder chemischen Signale bei biologischen Systemen verarbeiten die Algorithmen Zahlenwerte. Die Architektur eines KNN ist meist aus mehreren Schichten aufgebaut, wobei die Ausgabe der ersten Schicht zur Eingabe der zweiten wird.
Eine Bilderkennungs-KI, die Autos von Fahrrädern unterscheiden soll, sortiert zum Beispiel in der ersten Schicht nur grob nach den Umrissen und trennt dann Schicht für Schicht nach weiteren Kriterien.  Das Forscherteam hat den Zahlenwert GDV (Generalized Discrimination Value) eingeführt, der für jede Schicht angibt, wie gut die Eingabedaten in Klassen getrennt sind. „Wenn sich der Wert nicht mehr wesentlich ändert, ist die optimale Schichttiefe erreicht“, erklärt Dr. Krauss. Jede weitere Schicht verbessere nicht die Trefferquote, sondern erhöhe nur die Rechenzeit.

Lernen mit Datenbanken

Künstliche Neuronale Netzwerke lernen mit Hilfe von Bilddatenbanken, wie der Modified National Institute of Standards and Technology Database (MNIST). Sie umfasst 60.000 handgeschriebene Ziffern von 0 bis 9, die in zehn Klassen getrennt werden können. Bei diesem Datensatz konnten die Forscher mit ihrer Methode eine optimale Schichttiefe von vier ermitteln. Dagegen sind bei der Fashion-MNIST, die Grauwertbilder von zehn verschiedenen Kleidungsstücken enthält, schon acht Schichtfolgen nötig, um die Objekte ausreichend gut zu unterscheiden. Und für die CIFAR-10 Datenbank, in der je 6.000 Farbfotos von Schiffen, Flugzeugen, Lastwagen, Autos, Pferden, Hirschen, Hunden, Katzen, Vögeln und Fröschen gespeichert sind, liegt die optimale Schichttiefe bei 15. „Je komplexer die Trainingsdaten, desto mehr Schichten sind für eine gute Klassifizierung nötig“, sagt Patrick Krauss.

Der Zusammenhang zwischen dem Verlauf des GDV und der zunehmenden Klassifizierungsgüte pro Schicht wurde anschaulich sichtbar gemacht, indem die Aktivierungen der Schichten als Punkte auf eine Ebene abgebildet wurden. Jeder Punkt entspricht einer bestimmten Eingabe in das neuronale Netz, und die zehn verschiedenen Klassen wurden mit zehn Farben gekennzeichnet. Je größer die Schichttiefe, desto mehr sammeln sich die Punkte zu gleichfarbigen Clustern. „Die neue Methode ermöglicht es, verschiedene KI-Systeme miteinander zu vergleichen, um so zum Beispiel die effizienteste Architektur für ein gegebenes Problem zu finden“, sagt Dr. Krauss. Ebenso könne analysiert werden, in welcher Art und Weise das KI-System die Eingabedaten ordnet und repräsentiert. Das Verfahren kann auch zu einem wichtigen Werkzeug für die Neurowissenschaft werden. „Unsere Methode ermöglicht es zu quantifizieren, wie gut ein gegebenes Modell die Gehirnfunktion beschreibt.“

Weitere Informationen:

DOI: 10.1016/j.neunet.2021.03.035

Dr. Patrick Krauss
Leitung Cognitive Computational Neuroscience (CCN)
patrick.krauss@uk-erlangen.de