Trois mille milliards d’opérations à la seconde

Le Centre de Recherche Public – Gabriel Lippmann vient d’inaugurer une plateforme High Performance Computing (HPC) qui répond à plusieurs attentes exprimées au sein d’un groupe de travail initié par le ministère de l’Economie et du Commerce extérieur. Explications avec Christian Anese, responsable des Systèmes d’Information et de l’Organisation, et Dr Klaus Görgen, chercheur au sein du département Environnement et Agro-biotechnologies.
 

La plateforme HPC du CRP – Gabriel Lippmann permet la modélisation, la simulation numérique et le traitement massif de données, un triptyque qui est aujourd’hui devenu un enjeu stratégique aussi bien pour les entreprises que pour les centres de recherche en ce sens qu’il permet de réduire considérablement le ‘time to market’ et, plus largement, d’appréhender des domaines très complexes dont l’expérimentation concrète serait impossible parce qu’elle s’inscrirait dans des échelles espace temps gigantesques.

La plateforme HPC peut traiter plus de 3.000 milliards d’opérations à la seconde. Un calcul qui prendrait des mois à s’exécuter sur un ordinateur ou un serveur ‘classique’ est effectué en quelques minutes seulement sur cette plateforme.

Prenons l’exemple du projet sur lequel planche Klaus Görgen et son équipe. Il concerne l’impact du changement climatique régional sur le cycle de l'eau au Luxembourg et dans les régions limitrophes. L’idée est de récolter, d’analyser et de produire des données propres au Luxembourg sur lesquelles les autorités locales puissent se baser pour élaborer une stratégie politique. Un véritable travail de fourmi pour lequel la plateforme HPC est un outil essentiel qui permet à Klaus Görgen de gagner des jours entiers de travail, d’explorer des aspects qu’il n’aurait pas pu explorer avec une autre machine, de disposer d’historiques de données plus larges, bref d’être plus performant et d’obtenir des résultats plus réalistes et plus précis. Avant que le CRP – Gabriel Lippmann ne se dote d’une telle plateforme, il n’existait aucune alternative comparable au Luxembourg;  il était alors nécessaire d’utiliser des ressources de supercalculateurs situés à l’extérieur.

La recette de cette performance est une plateforme HPC qui est principalement composée d’un cluster constitué de 32 nœuds de calcul représentant l’équivalent de 512 processeurs. La plateforme HPC regroupe également des périphériques: 7 serveurs de traitement pré et postprocessing et de visualisation des résultats, un système de stockage centralisé de 96TB (térabytes), une librairie de backup de 200TB et un serveur d’échange de données pour des partenaires extérieurs. Tous ces éléments sont reliés entre eux par un réseau interne à ultra-haut débit (infiniband) offrant une bande passante élevée, une faible latence et une surcharge des processeurs extrêmement faible.
La plateforme HPC s’appuie également sur des outils standard majoritairement ‘open source’, des compilateurs qui permettent à des programmes écrit en code parallèle de s’exécuter et un outil d’administration et de supervision unifié et intégré.

La plateforme HPC du CRP – Gabriel Lippmann a une double vocation: répondre aux besoins des  chercheurs du CRP – Gabriel Lippmann travaillant sur des projets de recherche européens, et mettre à disposition à la demande de partenaires privés ou publics, dans le cadre de contrats de services, des ressources de traitement massif des codes de calcul parallèles et distribués afin d’améliorer leur productivité. Ainsi, une extension de l’environnement logiciel de la plate-forme HPC par des outils commerciaux mis à disposition par des partenaires extérieurs peut être envisagée le cas échéant. De plus, le CRP – Gabriel Lippmann propose à ses partenaires du support et de la formation à la demande pour l’utilisation de la plate-forme.

Au sein du CRP – Gabriel Lippmann, plusieurs projets sont en cours: 5 d’entre eux concernent la modélisation atmosphérique, les prévisions météorologiques et climatiques, 3 portent sur la modélisation hydrologique et le drainage hydraulique dans les bassins versants, 2 consistent en la modélisation des écosystèmes et d’autres touchent la bioinformatique et les Systems Biology (analyse du génome) ou la science des matériaux (simulation d’interactions ions-matières et plasma-surface). De nouveaux projets sont prévus notamment dans le champ d’application des nanomatériaux, par exemple.
Le CRP – Gabriel Lippmann envisage d’ores et déjà des perspectives d’évolution pour sa plateforme HPC: passer de 3,41 à 5,5 Téraflops (plus de 5.000 milliards d’opérations à la seconde) et doubler la capacité de stockage.