Campus n°101

Dossier/les superordinateurs

La Grille de calcul du cern passe par l’UNIGE

L’Université abrite une ferme d’ordinateurs dédiée au traitement des données produites par l’accélérateur de particules LHC du Cern. Elle fait partie d’un réseau de centres de calcul répartis dans le monde entier

photo
Couverte par un bruit assourdissant, la voix de Szymon Gadomski, chercheur au Département de physique nucléaire et corpusculaire (Faculté des sciences), présente la ferme de serveurs dont il a la charge. La taille de l’installation, située dans une salle d’Uni Dufour, n’est pas impressionnante en soi: plusieurs dizaines de «machines» rangées dans quatre armoires métalliques. Le point de vue change lorsque l’on sait que ces modestes 268 cœurs de calcul font partie du Worldwide LHC Computing Grid (WLCG). Autrement dit, le gigantesque réseau mondial d’ordinateurs, distribué sur la planète entière et destiné à recevoir, traiter et stocker les quantités phénoménales de données produites quotidiennement par les détecteurs de l’accélérateur de particules LHC du CERN, construit près de Genève.

Energie inédite

Le Large Hadron Collider (LHC) est un anneau dans lequel circulent dans les deux sens, depuis bientôt huit mois, des paquets de protons à une vitesse proche de celle de la lumière. Des collisions ont lieu à chaque tour, dont les produits sont captés par d’énormes détecteurs, dont les principaux sont ATLAS et CMS. L’énergie mise en jeu est inédite et, grâce à ce collisionneur, les physiciens entrent dans un domaine encore inexploré. Parmi les découvertes qu’ils espèrent réaliser figure le boson de Higgs, une particule hypothétique dont l’existence permettrait d’expliquer pourquoi toutes les autres particules que l’on connaît possèdent une masse.

Pour digérer la masse phénoménale de données produites par cette machine, l’Organisation européenne pour la recherche nucléaire (CERN) a dû concevoir, dès 2000, la mise en œuvre d’un réseau international d’ordinateurs puissants capables de mettre en commun leur puissance de calcul et de stockage d’information. Dix ans plus tard, le WLCG, ou plus simplement GRID, fonctionne parfaitement bien. Il est composé d’environ 250 000 cœurs de calculs (ou microprocesseurs) et possède une capacité de stockage de 100 petabytes (100 millions de milliards de bytes, c’est-à-dire la plus petite unité en informatique). Le tout est réparti sur plus de 140 sites dans 34 pays, essentiellement en Europe et en Amérique du Nord.

«Le LHC fonctionne comme une horloge, précise Szymon Gadomski. Chaque collision peut être analysée séparément. Les données produites par les détecteurs sont donc faciles à paralléliser et il n’est pas nécessaire d’avoir des interconnexions très rapides entre les centaines de milliers de microprocesseurs composant le GRID. Autrement dit, l’expérience du LHC n’a pas besoin d’un superordinateur au sens strict, comme le Jaguar américain ou le Monte Rosa suisse (lire en page 18). Elle nécessite en revanche une très grande capacité de stockage. Car le CERN veut tout garder. Ou presque.»

Garde rapprochée

C’est sur le site de l’organisation, près de Meyrin, que se situe la plus grande puissance informatique. Toutes les données produites par le LHC passent par ce hub, baptisé «Tier 0», qui possède en outre 20% de la puissance de calcul du GRID. Il engrange en moyenne 2,6 milliards de données par seconde (plus de 200 terabytes par jour). Environ un tiers de cette masse d’informations est enregistré sur des bandes magnétiques (70 par jour).

L’échelon en dessous («Tier 1») est occupé par 11 grands centres de calculs, dont le plus proche est celui de l’Institut national de physique nucléaire et de physique des particules à Villeurbanne, près de Lyon. Leur rôle est de recevoir toutes les données brutes, de les conserver, de les mettre à disposition et d’offrir suffisamment de puissance de calcul pour leur analyse. C’est la garde rapprochée en quelque sorte.

Puis vient l’armée des centres de calcul plus modestes appelés «Tier 2» ou «Tier 3». Répartis dans près de 160 sites, bien que tous ne soient pas encore intégrés dans le GRID, ils s’occupent de tâches plus spécifiques. L’un d’eux est celui dont s’occupe Szymon Gadomski à l’Université. «Comme notre groupe a contribué à la fabrication du détecteur ATLAS, nous sommes chargés de vérifier son bon fonctionnement, explique-t-il. Nous effectuons également des analyses sur une partie des données produites par ATLAS. Nous pouvons stocker et traiter 180 terabytes sur nos serveurs. Mais cela va augmenter sans cesse.»

A l’heure actuelle, 2000 chercheurs utilisent les données fournies et traitées par le GRID dans le monde entier. En moyenne, 100 000 cœurs de calculs sont exploités en permanence. Malgré quelques difficultés techniques, surtout au niveau des Tier 2, le dispositif fonctionne même mieux que prévu. Les chercheurs remarquent ainsi qu’ils peuvent envoyer d’un centre à l’autre plus de données qu’ils ne pensaient grâce à l’évolution des connexions optiques ultrarapides.

Le LHC fonctionne actuellement à la moitié de sa puissance nominale. Début 2013, après une pause d’une année, il sera progressivement amené à produire les collisions les plus énergétiques jamais réalisées (à 14 TeV). C’est alors que des rumeurs vraiment intéressantes commenceront à bruisser sur le GRID.