Künstliche Intelligenz: Vorreiter des KI-Booms

Eine Projektion mit 50 Years of Chair for Pattern Recognition. Im Vordergrund drei Männer die sich unterhalten.
50 Jahre Lehrstuhl für Mustererkennung an der FAU. (Bild: FAU/Giulia Iannicelli)

Ein halbes Jahrhundert Lehrstuhl für Mustererkennung

Vor genau 50 Jahren ging die Friedrich-Alexander-Universität Erlangen-Nürnberg (FAU) einen Schritt, von dem sie noch heute profitiert: Als erste Universität in Deutschland gründete sie einen Lehrstuhl, der sich explizit der Erkennung von Mustern in Daten widmete. Damit wurde sie hierzulande Vorreiterin einer Disziplin, die als Grundlage des aktuellen KI-Booms gelten darf.

Absehen ließ sich diese Entwicklung damals noch nicht: IBM hatte gerade den ersten tragbaren Computer auf den Markt gebracht – ein relativer Begriff, denn der Rechner war 25 Kilo schwer. In seiner besten Ausstattungs-Variante hatte er 64 Kilobyte Hauptspeicher; jedes Smartphone hat heute 100.000 Mal soviel. Dennoch kostete er (auf heutige Kaufkraft umgerechnet) mehr als 100.000 Dollar. Computer waren daher selbst in der Forschung eine Seltenheit. Dennoch suchte man an der FAU bereits damals nach Lösungen für Probleme, mit denen sich die Informatik noch heute beschäftigt – etwa zur automatischen Klassifizierung von Bildinhalten oder zur maschinellen Spracherkennung.

Heute gilt die FAU nicht nur als eine der führenden Adressen auf dem Gebiet des maschinellen Lernens, sondern ist auch eine wichtige Ausbildungsstätte für den akademischen Nachwuchs. Besuchten in den ersten Jahren oft nur eine Handvoll Hartgesottener die Vorlesungen und Übungen, absolvieren inzwischen jedes Semester mehr als 3.000 Studentinnen und Studenten Kurse des „Pattern Recognition Lab“.

Ein Gespräch mit dem Universitätspräsidenten Prof. Dr. Joachim Hornegger, der den Lehrstuhl zwischen 2005 und 2015 leitete, und Prof. Dr. Andreas Maier, dem aktuellen Lehrstuhlinhaber.

Herr Prof. Hornegger, man hört manchmal, der Lehrstuhl für Mustererkennung sei der erste KI-Lehrstuhl in Deutschland gewesen. Ist da etwas dran?

Prof. Hornegger: Ja, durchaus. Mustererkennung ist ja ein wichtiger Bereich der Künstlichen Intelligenz – ich sage immer: der Teil der KI, der wirklich funktioniert (lacht). Tatsächlich war die FAU die erste Universität in Deutschland, die diesem Feld einen eigenen Lehrstuhl gewidmet hat. Erster Inhaber war Heinrich Niemann. Das war für uns damals der Papst der Mustererkennung, auch wenn er sich selbst nie so bezeichnen würde – dazu ist er viel zu bescheiden. Aber man übertreibt nicht, wenn man sagt, dass er in der KI-Forschung hierzulande Geschichte geschrieben hat.

Das klingt fast, als sei Mustererkennung heute ein alter Hut…

Prof. Maier: Ganz und gar nicht. Ohne Mustererkennung gäbe es kein ChatGPT! Die statistischen Verfahren, die Leute wie Heinrich Niemann mitentwickelt haben und die seit 50 Jahren hier erforscht werden, sind gewissermaßen die Basis für den aktuellen KI-Boom. Denn große Sprachmodelle sind nichts weiter als riesige statistische Inferenzmaschinen: Sie suchen nach Mustern in Sätzen und ziehen daraus den Schluss, welches Wort als nächstes wahrscheinlich kommt.

Prof. Hornegger: Allerdings ahnte damals niemand, wie schnell sich das Feld entwickeln würde. Allein die Datenmengen und Speichergrößen, die uns heute zur Verfügung stehen, waren unvorstellbar. Als ich studiert habe, gab es keine USB-Sticks, sondern Disketten; auf die passten 1,4 Megabyte Daten. Um eine Bildsequenz von einer Sekunde Länge abzuspeichern, hätten Sie ein paar Dutzend davon gebraucht. Heinrich Niemann beschäftigte sich damals mit der Analyse von Sprache und Bildern: Wie kann man Laute sicher identifizieren, selbst wenn sie von unterschiedlichen Sprechern stammen? Was ist in einem Foto abgebildet, und anhand welcher Merkmale kann ein Algorithmus – wir sprechen von einem Klassifikator – das erkennen? So etwas.

v. l.: Prof. Dr. Andreas Maier, Lehrstuhlinhaber Mustererkennung, Dr. Christian Brosch, Leitung Department Informatik, Prof. Dr. Joachim Hornegger, Präsident der FAU. (Bild: FAU/Giulia Iannicelli)

Der Computer musste damals also beispielsweise wissen, dass ein Tisch vier Beine hat?

Prof. Hornegger: So ist es. Es ging damals um explizite Wissensrepräsentation. Aus welchen Bestandteilen besteht ein Auto, welche Merkmale müssen vorhanden sein, welche davon können auf welche Weise verdeckt sein? Das waren Fragestellungen, mit denen sich der Lehrstuhl damals unter anderem beschäftigt hat. Heute lernen die Algorithmen das automatisch, dank der riesigen Datenflut, die ihnen zur Verfügung steht, und der Rechenpower, die sie nutzen können.

Prof. Maier: Diese explizite Beschreibung – ein Tisch hat vier Beine – ist immer unwichtiger geworden. In der Spracherkennungs-Abteilung von IBM soll mal jemand gesagt haben: Immer wenn wir einen Linguisten feuern, geht die Fehlerrate unserer Algorithmen nach unten. Ein Linguist mag zwar wissen, wie ein Wort unter Idealbedingungen klingt. Aber in der Realität hört es sich dann oft doch anders an. Stattdessen basieren aktuelle Verfahren auf Statistik, also der Erkenntnis, dass etwa bestimmte Laute häufig zusammen auftreten. Das macht die Systeme viel flexibler.

Weil ein Tisch ja auch drei Beine haben kann – oder vielleicht mal zwei der vier Beine verdeckt sind? Und weil alle Tische dennoch Gemeinsamkeiten haben – Muster, die sich aber nicht so leicht in Worte fassen lassen?

Prof. Maier: So ist es. Die Algorithmen lernen selbst, welche Merkmale wichtig sind und in welcher Kombination sie auftreten müssen, damit es sich wahrscheinlich um einen Tisch handelt.

Prof. Hornegger: Damals fehlte es für solche Ansätze sowohl an Rechenleistung als auch an Trainingsdaten. Herr Niemann und später auch ich haben stattdessen eher versucht, möglichst effiziente Lösungen für bestimmte Probleme zu finden – etwa die Entdeckung von Konturen in einem Foto. Und dennoch entstand damals schon die Idee der neuronalen Netze. Und es wurden bereits Algorithmen entwickelt, mit denen sich solche Netze trainieren lassen. Ihren Durchbruch haben diese Verfahren aber erst geschafft, als die modernen extrem schnellen Grafikprozessoren aufkamen. Und als durch das Internet plötzlich massenhaft Daten zur Verfügung standen, mit denen man die Modelle füttern konnte.

Prof Maier: Inzwischen reichen auch diese Informationen nicht mehr aus, um die KI-Verfahren wesentlich zu verbessern. Heute gehen wir daher dazu über, die Algorithmen mit synthetischen Daten zu trainieren. Wir generieren beispielsweise am Computer ein Bild von einem Tumor, das wir in vielfältiger Weise variieren. Und damit füttern wir dann die künstliche Intelligenz, so dass sie danach derartige Tumoren in echten Radiologie-Aufnahmen besser erkennen kann.

Prof. Hornegger: Allerdings gibt es auch Probleme, die eine KI nicht wird lösen können. Wenn wir einen Text in einer völlig unbekannten Sprache haben, können die Verfahren ihn nicht übersetzen. Wir hatten beispielsweise mal ein Projekt, in dem es um die Lautäußerungen von Orcas ging. Die KI erkennt dann zwar Muster, die immer wieder vorkommen. Ohne weitere Informationen weiß sie aber nicht, was diese Muster bedeuten. Das klappt nur, wenn zugleich Verhaltensdaten dabei sind. Dann lernt der Algorithmus womöglich: Diese Laute erzeugen Orca-Mütter, wenn sie von ihrem Kind getrennt werden.

Vielen Menschen macht die Entwicklung im Bereich der künstlichen Intelligenz Angst. Können Sie das nachvollziehen?

Prof. Hornegger:  Nachvollziehen schon. Die KI wird ganze Berufsbilder verändern. Auch die Informatik – GPT-5 kann heute schon in wenigen Minuten Programme schreiben, an denen man früher Monate gesessen hätte. Aber Angst ist ein schlechter Ratgeber. Denn andererseits wird künstliche Intelligenz auch Freiräume schaffen, die wir dann hoffentlich für kreativere Aufgaben nutzen können. Veränderungen hat es in der Vergangenheit immer gegeben.

Prof. Maier: Ich habe den Eindruck, dass wir Informatiker in der Öffentlichkeit zu wenig zu dieser Frage gehört werden. Die Forscherinnen und Forscher, die ich kenne, beschäftigen sich alle auch mit der Frage, welche gesellschaftlichen Implikationen die Technologie haben wird. Gleichzeitig habe ich den Eindruck, dass fast alle von ihnen von den Möglichkeiten begeistert sind, die die KI bietet. Wir dürfen nicht vergessen, dass sich mit künstlicher Intelligenz auch sehr viel Gutes für die Menschheit erreichen lässt. Diese Chancen kommen im Diskurs oft zu kurz.

 



Weitere Informationen:

Prof. Dr. Joachim Hornegger
FAU-Präsident
praesidium-assistenz@fau.de

Prof. Dr. Andreas Maier
Lehrstuhl für Mustererkennung
andreas.maier@fau.de