«Die Zusammenarbeit war noch nie so eng wie heute»

Das Nationale Hochleistungsrechenzentrum CSCS in Lugano feiert diese Woche sein 25-jähriges Bestehen. Von Anfang an mit von der Partie war der ETH-Klimaforscher Christoph Schär. Er zeichnet nach, wie sich das Hochleistungsrechnen in dieser Zeit entwickelt hat.

Das Nationale Hochleistungsrechenzentrum der Schweiz (externe SeiteCSCS) feiert am 19. Oktober mit einer kleinen Feier sein externe Seite25-jähriges Bestehen. Seit seiner Gründung 1991 stellt das CSCS Anwendern aus Forschung und Industrie Ressourcen im Bereich Hochleistungsrechnen zur Verfügung, die zur Lösung anspruchsvoller Fragen benötigt werden. Das Zentrum wird von der ETH Zürich betrieben und befindet sich in Lugano.

Einer der ersten Nutzer des Zentrums war der ETH-Professor und Klimawissenschaftler Christoph Schär. Dies ist kein Zufall, entwickelten die Klimawissenschaftler doch bereits früh numerische Simulationen, um die Klimaentwicklung zu prognostizieren.

Vergrösserte Ansicht: Christoph Schär
ETH-Professor Christoph Schär rechnet seit 25 Jahren seine Klimamodelle auf den Supercomputern des CSCS. (Bild: Alessandro Della Bella)

ETH-News: Herr Schär, welche Erinnerungen haben Sie an die Gründungszeit des CSCS?
Christoph Schär: Wir haben unsere Klimamodelle von Anfang an am CSCS gerechnet. Zuvor nutzte ich für meine Doktorarbeit das Rechenzentrum der ETH. Als das CSCS gegründet wurde, war die Stimmung unter den Nutzern skeptisch. Selbst heute muss man den Entscheid, das CSCS im Tessin anzusiedeln, vor allem aus einer föderalen Optik heraus verstehen. Ein Rechenzentrum besteht ja nicht nur aus einem Supercomputer, sondern auch aus vielen Menschen mit Know-how, zu denen wir einen unkomplizierten Zugang haben möchten. Anfangs schien das im hauseigenen ETH-Rechenzentrum einfacher möglich.

Haben sich die Bedenken bestätigt?
Wir Forscher haben immer gut mit dem CSCS zusammengearbeitet. 1999 realisierten wir unser erstes grosses gemeinsames Projekt, das Mesoscale Alpine Programme. Damals gelang es erstmals, in Echtzeit die Wettervorhersage in einer Auflösung von drei Kilometern zu rechnen. Heute rechnen wir Klimamodelle über einen Zeitraum von Jahrzehnten mit Auflösungen, die damals nur für Wetter-Kurzfristvorhersagen über 18 Stunden möglich waren.

Wer ausser den Klimaforschern nutzte damals sonst noch die Infrastruktur?
Von Beginn weg dabei waren die Astronomen. Ausserdem waren die rechnergestützte Chemie, der Maschinenbau und die Festkörperphysik vertreten.

Die Rechnerleistung hat sich in den 25 Jahren des Bestehens des CSCS millionenfach erhöht. Zugleich wurden die Klimamodelle immer komplexer und aussagekräftiger. Welches war die treibende Kraft?
Ich war acht Jahre im wissenschaftlichen Beirat beim European Centre for Medium-Range Weather Forecasts (ECMWF) in Reading. Damals konnte ich beobachten, wie die Computerindustrie und die Wissenschaft einerseits Hand in Hand arbeiten, wie sich andererseits aber auch gegenseitig ausspielen. Bei Neubeschaffungen beispielsweise gingen die Quellcodes der ECMWF-Programme an die grossen Hardwarehersteller. Diese versuchten, diese zu optimieren, um die Ausschreibung zu gewinnen. Im Hintergrund stellte sich jedoch immer die Frage, wie stark man die Programme an eine bestimmte Rechnerarchitektur anpassen soll. Wir können ja nicht alle paar Jahre unsere Codes umschreiben.

Die beiden Initiativen «Platform for Advanced Scientific Computing» (PASC) und zuvor «High Performance and High Productivity Computing» (HP2C) zielten jedoch genau darauf ab: Programme an eine neue Rechnerarchitektur anpassen.
Dies hängt mit der Einführung von neuen Rechnern mit Grafikprozessoren zusammen. Dazu mussten wir tatsächlich Teile der Programme komplett neu schreiben. Der Anstoss dazu gab der jetzige Direktor des CSCS, Thomas Schulthess. Er hat uns überzeugt, dass es hier um eine strategische Neuausrichtung für die nächsten Jahrzehnte geht. Nun haben wir eine langfristige Strategie, wie wir die Programme für unterschiedliche Rechnerarchitekturen fit halten können. Die Zusammenarbeit mit dem CSCS war noch nie so eng wie heute.

Wie haben PASC und HP2C Ihre Forschungsarbeit beeinflusst?
Die Anpassung der Programme war sehr aufwändig. Eine universitäre Forschungsgruppe kann unmöglich diesen Effort alleine erbringen. Wir arbeiten seither sehr eng mit dem CSCS, mit MeteoSchweiz und dem Center for Climate Systems Modeling (C2SM) zusammen. Oliver Fuhrer von der MeteoSchweiz leitete das Unterfangen. Über einen Zeitraum von rund fünf Jahren haben wir mehr als fünfzehn Personenjahre investiert. Neu arbeiten wir im Rahmen eines Sinergia-Projekts auch mit dem Departement Informatik der ETH zusammen.

Wie sähe die Klimaforschung ohne Hochleistungsrechner aus?
Neben Theorie und Experiment wurde die Simulation die dritte wichtige Säule der Wissenschaft. In den Klimawissenschaften ist das besonders ausgeprägt der Fall, weil wir keine Experimente machen können. Die «Experimente», die wir mit dem Klimasystem durchführen, wie dem Ozonloch oder dem Klimawandel, zeigen uns, dass wir besser keine machen sollten. Deshalb sind Simulationen zentral für uns.

Was waren für Sie einschneidende Entwicklungen in den letzten 25 Jahren?
Ein Quantensprung für uns war, als wir in den Modellen erstmals Gewitter und Schauer explizit darstellen konnten. Wichtig war auch, die Ozeanmodelle in das Atmosphärenmodell zu integrieren. Heute sprechen wir von Erdsystem-Modellen, welche die Ozeane, das Meereis und die Landoberflächen einbeziehen.

…und bei den Supercomputern?
Die Veränderung von einem sogenannten Shared-Memory-Paradigma zu einem Distributed-Memory-Paradigma und die Frage, wie der Speicher auf einem Chip organisiert ist, zeigt, dass die Rechenoperationen selbst heute nicht mehr das grösste Problem sind. Wichtig ist heute, wie der Speicher organisiert ist und wie die Daten zu den Prozessoren geführt werden.

Bis Ende dieses Jahrzehnts soll die derzeitige Petaflop-Ära, in der Supercomputer Billiarden von Rechenoperationen pro Sekunde durchführen, durch die sogenannte Exascale-Ära abgelöst werden. Was erhoffen Sie sich davon?
Eines der grossen Ziele der Klimawissenschaften ist, Unsicherheiten wie gewittrige Niederschläge und Bewölkung durch möglichst explizite Simulationen zu klären. Hierfür muss die Entwicklung in Richtung Exascale weitergehen.

Und was wünschen Sie sich in Zukunft vom CSCS?
Über den Service und den Betrieb der Supercomputer hinaus brauchen wir Expertise, wie sich das High Performance Computing entwickeln und welche Architektur sich durchsetzen wird. Basierend darauf ergibt sich eine langfristige und kontinuierliche Strategie, die hoffentlich über Dekaden Bestand hat. Rechenzentren sind für uns Klimaforscher zentral. Sie spielen eine ähnliche Rolle für uns wie das CERN für die Teilchenphysiker.

JavaScript wurde auf Ihrem Browser deaktiviert