Cluster de calcul Centaure

Aujourd’hui, le calcul intensif (HPC : High Performance Computing) est devenu un outils indispensable dans de nombreux domaines scientifiques (mécanique des structures, mécanique des fluides, sciences des matériaux, physique, mathématiques…). Le HPC regroupe les activités autour de simulations numériques de plus en plus complexes issues de modèles théoriques mais aussi le traitement de volumes de données importants issues d’expériences ou de simulations.

Le calcul intensif aux Mines de Saint-Étienne s’appuie sur des infrastructures de calcul haute performance, en particulier un cluster de calcul, nommé Centaure (Rpeak = 41TFlops) composé de 28 nœuds de calcul CPU pour un total de 656 cœurs et 2,5To de RAM et de 2 nœuds de calcul GPU pour un total de 4 cartes GPU (une tesla P100 et 3 ampère A100). Les caractéristiques de la frontale et des noeuds de calcul sont données ci-dessous. Pour visualiser vos résultats graphiques avant de les rapatrier sur votre PC, vous pouvez vous connecter à un serveur de visualisation. Pour tout renseignement complémentaire, contactez votre équipe dédiée en écrivant à centaure-admins@listes.emse.fr

Cluster Centaure
  • 1 serveur frontal (Dell R730xd – 2016)

   – 2 CPU Intel Xeon E5-2630 v3 de 8 cœurs à 2,30 GHz

   – 64 Go de RAM RDIMM, 2133MT/s, Dual Rank

   – Réseaux : IB OmniPath 100 Gbps, eth. 10 Gbps et 1 Gbps

   – Baie de disques SAS (RAID5), 20 To de stockage + HDD 300 Go SAS (RAID1)

  • 16 nœuds de calcul CPU (C6320 – 2016)

   – 2 CPU Intel Xeon E5-2660 v3 de 10 cœurs à 2,6 GHz

   – 64 Go de RAM RDIMM, 2133MT/s, Dual Rank

   – Réseaux : IB OmniPath 100 Gbps, eth. 10 Gbps

  • 12 nœuds de calcul CPU (C6420 – 2019)

   – 2 CPU Intel Xeon Gold 6132 de 14 cœurs à 2,6 GHz

   – 128 Go de RAM RDIMM, 2666MT/s, Dual Rank

   – Réseaux : IB OmniPath 100 Gbps, eth. 10 Gbps

  • 1 nœud de calcul GPU (Dell R740 – 2019)

   – 2 CPU Intel Xeon Gold 6128 de 6 cœurs à 3,4 GHz

   – 128 Go de RAM RDIMM, 2666MT/s, Dual Rank

   – 1 carte graphique NVIDIA Tesla P100 16GO 4,7 TFLOPS en double précision et 9,3 TFLOPS en simple précision

  • 1 nœud de calcul GPU (HPE DL380 – 2023)

   – 2 CPU AMD EPYC 7252 de 8 cœurs à 3,1 GHz

   – 128 Go de RAM RDIMM, 2666MT/s, Dual Rank

   – 3 cartes graphiques NVIDIA Ampère A100 1680GO 9,7 TFLOPS en double précision et 19,5 TFLOPS en simple précision

  • 1 nœud de visualisation/calcul Post-Traitement (Dell R740 – 2019)

– 2 CPU Intel Xeon Gold 6128 de 6 cœurs à 3,4 GHz

– 128 Go de RAM RDIMM, 2666MT/s, Dual Rank

– 1 carte graphique NVIDIA Quadro P4000

Une brève histoire du calcul intensif aux Mines de Saint-Étienne… Sans remonter aux origines (1973), ni évoquer deux précédents clusters de calcul dédiés à des thématiques spécifiques, nous pouvons dire que le mouvement de structuration des moyens de calculs intensifs aux Mines de Saint-Étienne remonte à la fin des années 2000 avec l’achat par le centre SMS du cluster Pégase, pour un montant de 30 k€, financé pour moitié par le CNRS, et monté et administré par Nicolas Moulin et Thierry Louvancourt. Au fil des années et des financements amenés par les contrats de recherche, les différents centres de l’École ont apporté leur contribution à cet outil devenu bien commun, portant sa taille à 656 cœurs (en 2019). Le nombre d’utilisateurs et la complexité des calculs augmentant, le réseau Ethernet devenait limitant, la climatisation de plus en plus difficile à maintenir, bref un renouveau s’imposait. Ainsi, en 2016, l’École, via la direction de la recherche, a financé l’achat pour 80 k€ d’un nouveau cluster, Centaure, doté d’un réseau Infiniband auquel ont été agrégés les nœuds de l’ancien cluster Pégase. Une salle entièrement dédiée à ce cluster a été aménagée dans les sous-sols de l’École moins sujets aux variations de température, avec évidemment alimentation électrique et climatisation adaptées. Aux manettes, nous retrouvons aujourd’hui un nouveau duo d’administrateurs de ce cluster : Jérôme Mancuso et Simon Boyer (voir équipe dédiée). L’aventure continue…