Sie sind hier:

Konferenz in Frankfurt - Supercomputer werden nur noch langsam schneller

Datum:

Immer schneller, lautet die Devise bei den Höchstleistungsrechnern. Doch der Leistungszuwachs bei den Supercomputern flacht ab. Auch Deutschland als Standort fällt zurück.

Archiv: Blick auf die Computerelemente des "SuperMUC-NG" in einem Rechenzentrum am 24.09.2018
Höchstleistungsrechner "SuperMUC-NG" am LRZ Garching
Quelle: dpa

Mit knapp 4.000 Teilnehmern gilt die Internationale Supercomputerkonferenz ISC in Frankfurt am Main als größte und wichtigste Veranstaltung im Bereich des Höchstleistungsrechnens. Doch diesmal ist die Stimmung in Frankfurt weniger euphorisch. Die Supercomputerbranche nimmt sich eine kleine Auszeit.

Geringe Leistungssteigerung der Rechen-Boliden

Die Zahlen der Top-500-Liste der schnellsten Rechner der Welt sprechen für sich. Als die Computerwissenschaftler Jack Dongarra von der Universität von Tennessee und Erich Strohmaier vom Lawrence Berkeley National Laboratory in Kalifornien die aktuellen Zahlen zur Supercomputerentwicklung Anfang der Woche vorlegten, horchten Wissenschaftler und Forschungspolitiker auf.

Die gesamte Rechenleistung der 500 schnellsten Rechner der Welt hat gegenüber dem Vorjahr nur um 10 Prozent zugelegt. "Das ist ein sehr unterdurchschnittlicher Leistungsanstieg", urteilt Computerwissenschaftler Erich Strohmaier. Immerhin ist das der zweitschlechteste Wert, seit der inzwischen verstorbene Informatik-Professor Hans Werner Meuer vor 25 Jahren die Liste ins Leben gerufen hat.

Das Leibniz-Rechenzentrum in Garching bei München hat zwar mit ihrem neuinstallierten Supermuc-Hochleistungsrechner Platz 9 der Top-500-Liste belegt. "Das ist zweifelsohne ein Achtungserfolg", meint Jack Dongarra. Immerhin schafft Supermuc fast 20 Billiarden Rechenoperationen.

Deutschland: Nur noch 14 Supercomputer unter den Top-500

"Insgesamt ist Deutschland aber ziemlich abgefallen", merkt der altgediente Fachautor Andreas Stiller aus Hannover an. Er begleitet die Supercomputerkonferenz schon seit mehr als 20 Jahren. Die Rechenzentren und Forschungseinrichtungen in Deutschland waren vor einem halben Jahr noch mit 17 Systemen in der Top-500-Liste vertreten, jetzt sind es nur noch 14. Außerdem hat die Gesamtrechenleistung der deutschen Listenrechner die magische Marke von 60 Petaflops, das sind 60 Billiarden Rechenoperationen pro Sekunde, unterschritten.

Die Forschungspolitik feiert dennoch den Supercomputer-Standort Deutschland. Nicht wenige Fachpolitiker sind hier einem Irrtum aufgesessen. Sie haben die beeindruckenden Zahlen gesehen, die Supercomputer bei Anwendungen maschinellen Lernens erzielen.

"Da erreicht man eine Leistung, die ist um Faktor 16 größer als bei den wissenschaftlichen Anwendungen", klärt Erich Strohmaier über das Missverständnis auf. Für wissenschaftliche Simulationen müssen die Berechnungen sechszehnmal genauer ausgeführt werden als bei Anwendungen maschinellen Lernens.

Deshalb erreicht auch der Listenkönig, der Summit-Supercomputer am Oak Ridge National Laboratory, bei Anwendungen maschinellen Lernens 1,5 Trillionen Rechenoperationen. Bei wissenschaftlichen Anwendungen, die mit der Test-Suite der Top-500-Liste gemessen werden, sind es dann gerade noch mal 143 Billiarden. Da war übrigens viel mehr erwartet worden.

Auch Platz 2 bleibt in den USA. Ihn belegt der Sierra-Rechner am Lawrence Livermore National Lab mit 94 Billiarden Rechenoperationen. Analysten hatten einen chinesischen Supercomputer auf Platz 1 gesehen. Doch der ist nicht rechtzeitig fertig geworden.

China hat nicht geliefert

So bleiben für China im internationalen Wettkampf der Rechen-Boliden nur Platz 3 für den Sunway-Computer in Wuxi und Platz 4 für den Tianhe-Rechner. Der sollte eigentlich in diesem Jahr die Grenze von einer Trillion Rechenoperationen pro Sekunde im wissenschaftlichen Rechnen knacken und den ersten Platz holen. Das hat nicht geklappt.

Nicht nur die Leistungsdrosselung bei den Rechengeschwindigkeiten sorgt für Nachdenklichkeit unter den Computerwissenschaftlern. Auch die moralischen Grenzen beim Einsatz von Supercomputern werden stärker als früher diskutiert.

Und die Moral: Kehrseiten der steigenden Rechenleistung

Noch mehr Rechengeschwindigkeit bedeutet eben auch, Menschen noch präziser überwachen, ihr Verhalten noch genauer vorhersagen zu können. Es bedeutet, bessere autonome Kampfmaschinen zu bauen. Und mehr Rechenleistung verführt die Menschen dazu, immer mehr Entscheidungen an die Computer zu delegieren.

Die Computerwissenschaftler suchen hier den Dialog mit Politikern, zivilgesellschaftlichen Gruppen und anderen Fachwissenschaftlern. Denn die Frage, ob eine vorzeitige Entlassung eines Strafgefangenen besser von einem Computer oder von einem Menschen im Richteramt entschieden werden soll, ist keine Frage der Computerwissenschaft, sondern eine gesamtgesellschaftliche.

Gemerkt auf Mein ZDF! Merken beendet Bewertet! Bewertung entfernt Abonniert auf Mein ZDF! Abo beendet Embed-Code kopieren HTML-Code zum Einbetten des Videos in der Zwischenablage gespeichert.
Bitte beachten Sie die Nutzungsbedingungen des ZDF.

Die Website verwendet Cookies, um Ihnen ein bestmögliches Angebot zu präsentieren. Nähere Informationen und die Möglichkeit, die Verwendung von Cookies einzuschränken finden Sie hier.

Um Sendungen mit einer Altersbeschränkung zu jeder Tageszeit anzuschauen, können Sie jetzt eine Altersprüfung durchführen. Dafür benötigen Sie Ihr Ausweisdokument.

Sie wechseln in den Kinderbereich und bewegen sich mit Ihrem Kinderprofil weiter.