12/7/2007 istruzioni_cluster.txt 1 file:/nasfc/manager/alessio/Desktop
Transcript
12/7/2007 istruzioni_cluster.txt 1 file:/nasfc/manager/alessio/Desktop
12/7/2007 Configurazione HPC istruzioni_cluster.txt 1 Cluster ULYSSES -Ulisse I driver GM sono in /usr/gm-2.1.26-ibm le librerie MPICH-GM sono in /usr/local/mpich-gm compilate con compilatori gnu ed /usr/local/mpich-gm-intel compilate con compilatori Intel 10.0.23 Il percorso di default per mpicc e' /usr/local/mpich-gm-intel/bin quindi vengono utilizzati i compilatori Intel. Librerie BLAS e LAPACK compilate a partire dai TGZ sono in /usr/local/BLAS e sono libblas.a e liblapack.a Compilatore Portland installato e' in /usr/local/PGI-6.1-Centos ed il file di licenza per il nodo storage e' storage_license.dat Il file di licenza per il nodo node037 e' master_license.dat Poiche' sul nodo master (alias node037) esiste anche il flexlm di Matlab si usa solo il nodo storage come server di licenza per il PGI. Il file /etc/profile.d/pgi.sh contiene la configurazione per il pgi di tutti i nodi. La versione di Mpiexec installata e' mpiexec0.81 il percorso /usr/local/mpiexec0.81/bin/mpiexec Le librerie ATLAS basate su BLAS sono in /usr/local/ Linux_P4_Centos_Atlas e Linux_P4SSE2-ATLAS(precompilate) SAMRAI Per la compilazione di SAMRAI sono richieste HDF5 JPEG Zlib PETSC-2.1.6 PETSC e' stato compilato nella versione 2.3.3-p0 con PETSC_DIR=/usr/local/petsc-2.3.3-p0 e PETSC_ARCH=linux-intel-nodebug-cxx-real Using configure Options: --with-vendor-compilers=intel --download-f-blas-lapack=1 --with-scalar-type=real --with-clanguage=cxx -with-mpi-dir=/usr/local/mpich-gm-intel/ --with-debugging=0 --with-shared=0 oppure PETSC_ARCH=linux-linux-intel-nodebug-cxx Using configure Options: --with-vendor-compilers=intel --download-f-blas-lapack=1 file:/nasfc/manager/alessio/Desktop/istruzioni_cluster.txt 12/7/2007 istruzioni_cluster.txt 2 --with-scalar-type=complex --with-clanguage=cxx -with-mpi-dir=/usr/local/mpich-gm-intel/ --with-debugging=0 --with-shared=0 Petsc e' stato compilato anche nella versione petsc-2.1.6 con PETSC_DIR=/usr/local/petsc-2.1.6 PETSC_ARCH=linux_intel make BOPT=g Make BOPT=O I file di configurazione sono in bmake/linux_intel e' determinante l'opzione -nofor-main inserita nel file variables e' stata aggiunta anche l'opzione -i-static La compilazione O_complex da dei problemi Il linking con O_c++ da dei problemi Visit 1.3.3 he stato copiato dal cluster redhat 7.3 e per funzionare richiede le librerie vecchie gia' installate sui nodi. Installata anche la versione 1.6 in /usr/local/visit Server PBS e server MAUI Le versioni utilizzate per consentire la sospensione dei job seriali sono: maui-3.2.6p19 torque2.0p11 Maui Il programma e' installato in /usr/local/maui-3.2.6p19 i dati e la configurazione in /var/spool/maui-3.2p19 Il Torque Installato in torque2.0p11 -> /usr/spool/PBS/ e' presente un link in /var/spool/torque2.0p11 COMPILATORI BASE Sono disponibili i compilatori gnu, intel e PGI Il compilatore c,c++ di DEFAULT e' icc e ifort quello fortran Sono installati in /usr/local/intel Installato anche il debugger della intel Librerie Matematiche INTEL con licenza Settembre 2007 /usr/local/intel/cmkl file:/nasfc/manager/alessio/Desktop/istruzioni_cluster.txt 12/7/2007 istruzioni_cluster.txt 3 Magma La versione di Magma installata e' la V2.12-12 SIngular Installata la versione 3.0.2 in /usr/local/Singular Gromacs Installato gromacs versione 3.3.1 ./configure --prefix=/usr/local/gromacs-mpi --enable-mpi -with-external-blas =/usr/local/Linux_P4_Centos_Atlas/ -with-external-lapack=/usr/local/Linux_P4_Centos_Atlas/ --with-fft=fftw2 --with-x Richiede librerie MPI e FFTW2 in versione Float FFTW2 in /usr/local/FFT2-MPI-float FFTW3 In versione Double precision /usr/local/FFTW Installazione petsc2.3.3-p1 export PETSC_ARCH=linux-intel-debug-cxx-real linux-intel-nodebug-cxx-real linux-intel-debug-cxx-complex linux-intel-nodebug-cxx-complex Working directory: /usr/local/petsc-2.3.3-p1 ./config/configure.py --with-vendor-compilers=intel --download-f-blas-lapack=1 --wi th-scalar-type=real --with-clanguage=cxx -with-mpi-dir=/usr/local/mpich-gm-intel / --with-debugging=0 ./config/configure.py --with-vendor-compilers=intel --download-f-blas-lapack=1 --wi th-scalar-type=real --with-clanguage=cxx -with-mpi-dir=/usr/local/mpich-gm-intel / --with-debugging=1 --with-dynamic=1 --with-shared=0 ./config/configure.py --with-vendor-compilers=intel --download-f-blas-lapack=1 --wi th-scalar-type=complex --with-clanguage=cxx -with-mpi-dir=/usr/local/mpich-gm-intel / --with-debugging=0 ./config/configure.py --with-vendor-compilers=intel --download-f-blas-lapack=1 --wi th-scalar-type=complex --with-clanguage=cxx -with-mpi-dir=/usr/local/mpich-gm-intel / --with-debugging=1 --with-dynamic=1 --with-shared=0 Linpack-Intel Eseguito test Linpack Nodo Dati Gflops Frequenza n m Allin file:/nasfc/manager/alessio/Desktop/istruzioni_cluster.txt 12/7/2007 node001 node042 storage001 node030 istruzioni_cluster.txt 3,86 5,34 3,68 4,56 2,4 3,2 2,4 2,8 10000 10000 10000 10000 4 10000 10000 10000 10000 1k 1k 1k 1k Alberta 1-2 Le librerie di Alberta sono presenti in /usr/local/alberta-1.2 VTK Il vtk e' presente in /usr/local/VTK/bin Ganglia Nuova versione per il monitoraggio delle macchine http://ulysses.mat.unimi.it/ganglia Xml-Xindice Database 1.0 per l'accounting sull'uso della macchina in /usr/local/xml-xindice-1.0 Matlab 7.1.0.183 Service pack 3 release 14 file:/nasfc/manager/alessio/Desktop/istruzioni_cluster.txt