12/7/2007 istruzioni_cluster.txt 1 file:/nasfc/manager/alessio/Desktop

Transcript

12/7/2007 istruzioni_cluster.txt 1 file:/nasfc/manager/alessio/Desktop
12/7/2007
Configurazione HPC
istruzioni_cluster.txt
1
Cluster ULYSSES -Ulisse
I driver GM sono in
/usr/gm-2.1.26-ibm
le librerie MPICH-GM
sono in /usr/local/mpich-gm compilate con compilatori gnu
ed /usr/local/mpich-gm-intel compilate con compilatori Intel 10.0.23
Il percorso di default per mpicc e'
/usr/local/mpich-gm-intel/bin
quindi vengono utilizzati i compilatori Intel.
Librerie BLAS e LAPACK compilate a partire dai TGZ sono in
/usr/local/BLAS
e sono libblas.a e liblapack.a
Compilatore Portland installato e' in
/usr/local/PGI-6.1-Centos
ed il file di licenza per il nodo storage e'
storage_license.dat
Il file di licenza per il nodo node037 e' master_license.dat
Poiche' sul nodo master (alias node037) esiste anche il flexlm di Matlab si usa
solo il nodo storage come server di licenza per il PGI.
Il file /etc/profile.d/pgi.sh contiene la configurazione per il pgi di tutti i nodi.
La versione di Mpiexec installata e'
mpiexec0.81
il percorso
/usr/local/mpiexec0.81/bin/mpiexec
Le librerie ATLAS basate su BLAS sono in
/usr/local/
Linux_P4_Centos_Atlas e Linux_P4SSE2-ATLAS(precompilate)
SAMRAI
Per la compilazione di SAMRAI sono richieste
HDF5
JPEG
Zlib
PETSC-2.1.6
PETSC e' stato compilato nella versione 2.3.3-p0
con PETSC_DIR=/usr/local/petsc-2.3.3-p0
e PETSC_ARCH=linux-intel-nodebug-cxx-real
Using configure Options: --with-vendor-compilers=intel --download-f-blas-lapack=1
--with-scalar-type=real --with-clanguage=cxx -with-mpi-dir=/usr/local/mpich-gm-intel/
--with-debugging=0 --with-shared=0
oppure PETSC_ARCH=linux-linux-intel-nodebug-cxx
Using configure Options: --with-vendor-compilers=intel --download-f-blas-lapack=1
file:/nasfc/manager/alessio/Desktop/istruzioni_cluster.txt
12/7/2007
istruzioni_cluster.txt
2
--with-scalar-type=complex --with-clanguage=cxx
-with-mpi-dir=/usr/local/mpich-gm-intel/ --with-debugging=0 --with-shared=0
Petsc e' stato compilato anche nella versione petsc-2.1.6 con
PETSC_DIR=/usr/local/petsc-2.1.6
PETSC_ARCH=linux_intel
make BOPT=g
Make BOPT=O
I file di configurazione sono in bmake/linux_intel
e' determinante l'opzione -nofor-main
inserita nel file variables
e' stata aggiunta anche l'opzione -i-static
La compilazione O_complex da dei problemi
Il linking con O_c++ da dei problemi
Visit 1.3.3 he stato copiato dal cluster redhat 7.3 e per funzionare richiede le
librerie vecchie gia' installate sui nodi.
Installata anche la versione 1.6 in /usr/local/visit
Server PBS e server MAUI
Le versioni utilizzate per consentire la sospensione dei job seriali sono:
maui-3.2.6p19
torque2.0p11
Maui
Il programma e' installato in
/usr/local/maui-3.2.6p19
i dati e la configurazione in
/var/spool/maui-3.2p19
Il Torque
Installato in
torque2.0p11 -> /usr/spool/PBS/
e' presente un link in /var/spool/torque2.0p11
COMPILATORI BASE
Sono disponibili i compilatori
gnu, intel e PGI
Il compilatore c,c++ di DEFAULT e' icc e
ifort quello fortran
Sono installati in /usr/local/intel
Installato anche il debugger della intel
Librerie Matematiche INTEL con licenza Settembre 2007
/usr/local/intel/cmkl
file:/nasfc/manager/alessio/Desktop/istruzioni_cluster.txt
12/7/2007
istruzioni_cluster.txt
3
Magma
La versione di Magma installata e' la V2.12-12
SIngular
Installata la versione 3.0.2 in /usr/local/Singular
Gromacs
Installato gromacs versione 3.3.1
./configure --prefix=/usr/local/gromacs-mpi --enable-mpi -with-external-blas
=/usr/local/Linux_P4_Centos_Atlas/
-with-external-lapack=/usr/local/Linux_P4_Centos_Atlas/ --with-fft=fftw2 --with-x
Richiede librerie MPI e FFTW2 in versione Float
FFTW2 in /usr/local/FFT2-MPI-float
FFTW3 In versione Double precision
/usr/local/FFTW
Installazione petsc2.3.3-p1
export PETSC_ARCH=linux-intel-debug-cxx-real
linux-intel-nodebug-cxx-real
linux-intel-debug-cxx-complex linux-intel-nodebug-cxx-complex
Working directory: /usr/local/petsc-2.3.3-p1
./config/configure.py --with-vendor-compilers=intel --download-f-blas-lapack=1 --wi
th-scalar-type=real --with-clanguage=cxx -with-mpi-dir=/usr/local/mpich-gm-intel
/ --with-debugging=0
./config/configure.py --with-vendor-compilers=intel --download-f-blas-lapack=1 --wi
th-scalar-type=real --with-clanguage=cxx -with-mpi-dir=/usr/local/mpich-gm-intel
/ --with-debugging=1 --with-dynamic=1 --with-shared=0
./config/configure.py --with-vendor-compilers=intel --download-f-blas-lapack=1 --wi
th-scalar-type=complex --with-clanguage=cxx -with-mpi-dir=/usr/local/mpich-gm-intel
/ --with-debugging=0
./config/configure.py --with-vendor-compilers=intel --download-f-blas-lapack=1 --wi
th-scalar-type=complex --with-clanguage=cxx -with-mpi-dir=/usr/local/mpich-gm-intel
/ --with-debugging=1 --with-dynamic=1 --with-shared=0
Linpack-Intel
Eseguito test Linpack
Nodo
Dati
Gflops
Frequenza
n
m
Allin
file:/nasfc/manager/alessio/Desktop/istruzioni_cluster.txt
12/7/2007
node001
node042
storage001
node030
istruzioni_cluster.txt
3,86
5,34
3,68
4,56
2,4
3,2
2,4
2,8
10000
10000
10000
10000
4
10000
10000
10000
10000
1k
1k
1k
1k
Alberta 1-2
Le librerie di Alberta sono presenti in /usr/local/alberta-1.2
VTK
Il vtk e' presente in /usr/local/VTK/bin
Ganglia
Nuova versione per il monitoraggio delle macchine
http://ulysses.mat.unimi.it/ganglia
Xml-Xindice
Database 1.0 per l'accounting sull'uso della macchina
in /usr/local/xml-xindice-1.0
Matlab
7.1.0.183 Service pack 3 release 14
file:/nasfc/manager/alessio/Desktop/istruzioni_cluster.txt