IT

Unsere IT-Infrastruktur im Überblick

Team

  1. Sternbeck, André, Dr. Leitung, Compute-Server, VMs Theoretisch-Physikalisches Institut
  2. Kleinwächter, Andreas, Dr. Datenbanken AG Relativistische Astrophysik
  3. Atteneder, Florian AG Gravitationstheorie

Zentrale Dienste

Zentrale Workstations

Supermicro-Workstation
Supermicro-Workstation
Foto: Supermicro

Wir betreiben derzeit 5 Workstations für Code-Entwicklungsarbeit und interaktives Arbeiten z.B. mit Python, Mathematica oder Maple.

Die Workstations haben Zugriff auf das TPI HOME-Verzeichnis /home und die globalen NFS-Partitionen: /tpidata und /qftdata[1-3].

Unsere Workstations erreichen sie mit ssh und ihrem TPI account vom Desktop-PC. Mit "module avail" findet man einen Überblick über installierte Softwarepakete und Compiler.

  • c-serv:  12 Kerne, 256 GB RAM, XeonPhi 3120A
  • m-serv: 12 Kerne, 384 GB RAM
  • c-serv2:  8 Kerne, 256 GB RAM
  • m-serv2: 8 Kerne, 256 GB RAM, XeonPhi 7120P
  • gpuserv: 8 Kerne, 256 GB RAM, 4 Nvidia-GPUs

TPI-Cluster: Abacus

Abacus-Cluster
Abacus-Cluster
Foto: A. Sternbeck

Für rechenintensive "Batchjobs" (SLURM) betreiben wir am TPI einen kleinen HPC-Cluster. Im Unterschied zu klassischen Clustern ist dieser klein dimensioniert (16 Knoten), besitzt aber eine hohe Single-Core Performance pro Rechenkern. Typische Programme auf diesem Cluster brauchen wenige Rechnenkerne, dafür aber hohe CPU-Taktraten.

  • Zugang erfolgt vom Desktop PC per ssh über den Head-Knoten: abacus
  • Batchjobs werden über das Queuing-System SLURMExterner Link gesteuert.

Dateizugriff

  • Das Cluster besitzt wie die Workstations Zugriff auf das TPI HOME-Verzeichnis /home und die globalen NFS-Partitionen: /tpidata und /qftdata[1-3].
  • Alle Knoten sind über ein internes 10 GBit/s Intranet verbunden. Knotenpaare der Partionen A und B sind zusätzlich über Infiniband verbunden (derzeit nur paarweise).
  • Jeder Knoten besitzt lokale SSDs (/scratch) für I/O-intensive Jobs.

Idealerweise werden im Vorfeld obige Workstations für die Code-Entwicklung/Compilation genutzt. Dort stehen GCC, CLang und Intel-Compiler zur Verfügung. Laufzeitbibliotheken stehen auf allen Knoten und Workstations gleichermaßen zur Verfügung (globales Verzeichnis).

Spezifikationen der Partitionen

Partition A Partition B
Partition C
4x (16 Kerne + 128 GB RAM) 8x (16 Kerne + 192 GB RAM) 4x (36 Kerne + 384 GB RAM)
anode-01...anode-04 bnode-01...bnode-08 cnode-01...cnode-04
(cnode-02..04 bald!)

 

FSU-Cluster: Ara

Rechenintensive Batchjobs mit Bedarf an hoher Parallelität führen wir auf dem DFG-geförderten ARA-ClusterExterner Link der FSU Jena aus.