Matériel
Les ressources de calcul du cluster IG ont évolué avec le temps. Ci-dessous se trouve le matériel le plus récent datant de fin d’année 2017.
HPC
Pour les calculs hautement parallélisés, nous disposons de 6 noeuds de calcul équipés d’interfaces réseaux InfiniBand pour le partage de données à grande vitesse (56 Gb/s). Ces interfaces réseaux nous permettent de perdre moins de temps en transfert de données entre les noeuds lors de grande simulation.
Ces serveurs possèdent chacun :
-
2 processeurs Intel Xeon E5-2620 v4 @ 2.10 GHz (8 coeurs → 16 threads)
-
64 GB de mémoire RAM
-
2 ports réseau Gigabit Ethernet
-
1 carte réseau Mellanox ConnectX-3 InfiniBand 56 Gb/s
Intelligence Artificielle
Pour la recherche dans le domaine du Deep Learning et de l’Intelligence Artificielle, nous avons 3 noeuds équipés de GPU NVIDIA.
Ces serveurs possèdent chacun :
-
2 x processeurs Intel Xeon E5-2620 v4 @ 2.10 GHz (8 coeurs → 16 threads)
-
64 GB de mémoire RAM
-
2 ports réseau Gigabit Ethernet
-
1 carte réseau Mellanox ConnectX-3 InfiniBand 56 Gb/s
Les deux premiers noeuds deep1 et deep2 ont chacun :
-
4 x GPU NVIDIA GeForce GTX 1080 Ti (3584 coeurs CUDA, 12 GB de VRAM GDDR5X) (Q1 2017)
Le troisième noeud simu1 diffère par ces caractèristiques :
-
128 GB de mémoire RAM au lieu de 64
-
2 x GPU NVIDIA GeForce GTX 1080 Ti (3584 coeurs CUDA, 12 GB de VRAM GDDR5X) (Q1 2017)
-
1 x GPU NVIDIA Tesla P100 (3584 cuda cores, 12 GB RAM HBM2) (Q2 2016)
Serveurs de 2015
Nous avons deux serveurs SuperMicro au format tour contenant des accélérateurs différents.
La base est identique :
-
2 x processeurs Intel Xeon E5-2630 v3 @ 2.40 GHz (8 coeurs → 16 threads)
-
32 GB de mémoire RAM
Le premier serveur est équipé de 4 GPU :
-
4 x NVIDIA GeForce GTX 980 (2048 coeurs CUDA, 4 GB de VARM GDDR5) (2014)
Le second est équipé de 2 accélérateurs MIC :
-
2 x Intel Xeon Phi 5110P. (60 coeurs, 240 Threads, 8 GB RAM GDDR5) (Q4 2012)
Serveurs de 2009
En 2009, nous avons installés 11 serveurs de calcul Sun Fire X4150 pour du calcul HPC et un rack NVIDIA Tesla S1070 qui nous permettait de créer des algorithmes qui s’exécutaient sur GPU avec la bibliothèque CUDA.
Chaque serveur était équipé de :
-
2 x processeurs Intel Xeon L5420 @ 2.50 GHz (Q1 2008)
-
16 GB de mémoire RAM
-
1 disque dur SAS de 475 GB
Le Tesla était raccordé au onzième serveur et contenait :
-
4 x GPU GT200B (240 coeurs CUDA, 4 GB de VRAM GDDR3)