Rechenleistung der Zukunft

Symbolbild: Panthermedia
Symbolbild: Panthermedia

FAU-Wissenschaftler stellen sich der Herausforderung, Computerprogramme verlässlicher, energieeffizienter und sicherer zu machen

Mehr als 1.000 Prozessorkerne auf einem Chip – so sehen nach Meinung von Experten die Rechner der Zukunft aus. Mit der Rechenleistung aber werden sich bei den neuen Vielkern-Prozessoren auch die Herausforderungen vervielfachen: Wie kann die Rechenleistung für hochgradig parallele Anwendungen nutzbar gemacht werden? Wie lässt sich die Ausführungszeit von Rechenoperationen verlässlich vorhersagen und planen? Wie kann man Hochleistungsrechnen energieeffizienter gestalten – und wie müssen Sicherheitskonzepte aussehen, wenn Anwendungen, auch verschiedener Nutzer, parallel laufen?

An diesen Fragen tüfteln Wissenschaftlerinnen und Wissenschaftler von drei Hochschulen unter der Leitung der FAU im Forschungsverbund „Invasives Rechnen“. Der Sonderforschungsbereich/Transregio wird von der Deutschen Forschungsgemeinschaft (DFG) nun in einer weiteren Förderperiode mit 9,6 Millionen Euro unterstützt.

Eine immer größere Zahl an gleichzeitigen Rechenoperationen: In Supercomputern ist dies heute schon Alltag. Auf handelsüblichen Computern sind es heute lediglich bis zu acht Kerne, die parallel arbeiten. Aber auch in der Rechnertechnologie von Smartphones, Tablet-PCs und auch im Automobil ist diese hohe Rechenleistung immer mehr gefragt. Die drei großen Herausforderungen, die diese Entwicklung mit sich bringt, nehmen die FAU-Forscher in den Blick.

Zum einen gilt es, bereits im Programm anzugeben, welche Rechenleistung im System bereitzustellen ist. Ein Anwendungsbeispiel, das die Forscher im Forschungsverbund „Invasives Rechnen“ hierfür im Visier haben, ist ein Roboter, der sich in einem bestimmten Umfeld bewegt und auf seine Umwelt reagiert. Alle seine Funktionen müssen gleichzeitig einsatzbereit sein: die Bildverarbeitung beim Sehen zum Beispiel, so dass er die Treppe erkennt, auf die er zuläuft. Dies darf aber gleichzeitig nicht zu Lasten der Steuerung der Beinbewegung gehen, sonst fällt er die Treppe hinunter. Dieses Prinzip lässt sich auf viele komplexe Geräte und Anwendungen übertragen. Auf die Medizintechnik etwa, wo die Bildverarbeitung im Computertomographen ebenfalls hochgradig parallele Rechenleistung erfordert.

Der Zuwachs an Rechenleistung durch viele Prozessoren bringt jedoch eine weitere Herausforderung mit sich: den immer höheren Energieverbrauch. Mehr Prozessoren fressen mehr Strom. Und: Sie erhitzen sich stärker. Das heißt, sie brauchen Kühlung oder können gar nicht alle gleichzeitig betrieben werden, was den Nutzen so vieler Kerne wiederum einschränkt. Rechenzentren, wie das Leibniz-Rechenzentrum in München, haben Stromkosten in Millionenhöhe. Aber auch im kleineren Maßstab steht ein geringer Energieverbrauch immer weiter oben auf der Prioritätenliste. Waren es früher die Hardwarekosten, die die Anzahl an Prozessoren auf einem Chip limitierten, sind es heute die Stromkosten. Neben vielen anderen technologischen Entwicklungen, die hier Abhilfe schaffen könnten, ist einmal mehr die Rechnersteuerung eine Stellschraube, an der sich drehen lässt. Die Wissenschaftler arbeiten beispielsweise an Algorithmen, die intelligent die Rechenkapazität nutzen und Operationen von einem Teil des Chips in einen anderen verlagern, der gerade nichts zu tun hat – und dem ersten damit die Gelegenheit geben, abzukühlen. Gelingt es, die Hitzeentwicklung auf dem Chip einzudämmen, wird die Hardware auch sicherer und zuverlässiger – sie altert weniger schnell, fällt seltener aus. Nicht zuletzt in Systemen mit hohen Verlässlichkeitsanforderungen wie in der Luftfahrt oder im Automobil ist dies essentiell.

Schließlich ist das Thema Sicherheit von Anwendungen und deren Daten eine entscheidende Anforderung. Gerade bei Plattformen, auf denen unterschiedliche Anwendungen (Apps) laufen, stellt sich die Frage, mit welchen Mechanismen sich Sicherheit herstellen und garantieren lässt. Dabei geht es nicht nur um sicherheitskritische Daten, sondern auch darum, zu verhindern, dass eine Anwendung eine andere „beobachten“ kann. Schließlich lassen sich allein schon aus Rechenmustern – zum Beispiel der Rechenintensität zu bestimmten Zeiten – Informationen gewinnen.

Bei all diesen Fragestellungen bauen die Forscherinnen und Forscher der FAU auf den Ergebnissen der vergangenen vier Jahre auf, in denen sie zeigen konnten, dass sich die Idee des invasiven Rechnens von der Anwendung bis hinunter zur Hardware durchgängig umsetzen lässt. „Für den IT-Standort Deutschland ist es von herausragender Bedeutung, dass Rechnertechnologie nicht nur im Ausland eingekauft und hier in Produkten verbaut wird, sondern dass auch die deutsche IT-Landschaft mit Innovationen aufwarten kann und die Technologie durchgängig beherrscht“, meint Transregio-Sprecher Prof. Dr. Jürgen Teich, Lehrstuhl für Informatik 12, Hardware-Software-Co-Design. „Natürlich werden es weiterhin die großen bekannten Hersteller sein, die neue Generationen an Prozessoren auf den Markt bringen. Die Erfüllung von Qualitätszusagen für Programme, wie Zuverlässigkeit, Ausführungszeit und Sicherheit, erfordert jedoch ein radikales Umdenken aller Hard- und Softwarestrukturen inklusive der Betriebssystemfunktionen. Genau das will unser interdisziplinärer Sonderforschungsbereich darlegen durch eigene Neuentwicklungen – angefangen vom Aufbau von Vielkern-Prozessoren bis hin zu neuen Programmiersprachelementen.“

Weitere Informationen:

Prof. Dr. Jürgen Teich
Tel.: 09131/85-25150
teich@informatik.uni-erlangen.de