Technik & Materialien

Kleine Schweiz ganz gross

Maria Grazia Giuffreda, Vizedirektorin Centro Svizzero di Calcolo Scientifico

Auch die Schweiz besitzt hochmoderne Supercomputer. Sie befinden sich im 1991 eröffneten Centro Svizzero di Calcolo Scientifico (CSCS) im Tessin.

Das nationale Hochleistungs-Rechenzentrum in Lugano-Cornaredo wird von der ETH Zürich betrieben und steht allen Schweizer Hochschulen und Forschungszentren zur Verfügung. Der bisherige Superstar des CSCS ist "Piz Daint", ein Rechner der Petaflops-Leistungsklasse und lange Zeit der einzige Rechner Europas unter den weltweiten Top-Ten. Nun ist er am Ende und wird dieses Jahr durch "Alps" ersetzt, ein System mit bis zu 10-mal mehr Rechenpower. Doch der neue Hochleistungsrechner ist nicht nur sehr schnell, sondern gleichzeitig auch das Herz einer ganz neuen, innovativen Forschungsinfrastruktur, wie CSCS-Vizedirektorin Maria Grazia Giuffreda ausführt.

Technoscope: Was bringt der Übergang zu "Alps"?

Maria Grazia Giuffreda: Bisher haben wir im CSCS verschiedene Rechnersysteme für unterschiedliche Bedürfnisse betrieben. MeteoSchweiz zum Beispiel stand für seine Wetterprognosen ein eigener Rechner zur Verfügung. Die neue Infrastruktur ist viel flexibler und in der Lage, verschiedenen Nutzern gleichzeitig genau die Dienste zur Verfügung zu stellen, die sie benötigen. Ausserdem ist sie auf Machine Learning spezialisiert.

Was bedeutet das?

Beim Machine Learning – oft auch künstliche Intelligenz genannt – wird der Computer mit einem grossen Set von Daten darauf trainiert, gewisse Muster und Zusammenhänge zu erkennen, also zum Beispiel was den Unterschied zwischen einem Hündchen mit schwarzen Kugelaugen und einem Heidelbeer-Muffin ausmacht. Diese Regeln kann er später selbständig auf völlig neue Daten anwenden und sich dabei weiter verbessern: Er hat gelernt, einen Hund zu identifizieren.

Wofür wird maschinelles Lernen eingesetzt?

Wir haben bei der Entwicklung von "Alps" ganz besonders ans Klima gedacht. Die Klimaforschung in der Schweiz ist extrem stark, auch auf internationaler Ebene. Aber um die Folgen des Klimawandels wirklich zu verstehen, um das Wissen zu generieren, das die Welt zur Bewältigung der Klimakrise dringend braucht, muss sie viel präzisere Simulationen erstellen können. Das setzt einerseits eine immer grössere Rechenleistung voraus. Und andererseits eben auch eine Infrastruktur, die riesige Datenmengen verarbeiten und analysieren kann. Pro Simulation sprechen wir da von Datenmengen im Petabyte (1015)-Bereich pro Tag.

Erstellt: 25.05.2024
Mehr