Some More Information (in German)
Abschlussbedingungen
WICHTIG: Bitte aendern Sie mit dem Kommandozeilenbefehl passwd nach dem ersten erfolgreichen Login das Initial-Passwort sofort auf einen ganz geheimen nur Ihnen bekannten Wert (sollte 8 Zeichen lang sein und neben Buchstaben auch Interpunktionszeichen und Ziffern enthalten ==> nicht so leicht zu 'knacken'). WICHTIG: Auf zusie gilt (wie fuer alle Rechner im Compute Server Pool): Es wird kein Backup angefertigt ... d.h. wenn irgendwas im Plattensystem kaputt laeuft ist alles futsch. Die NutzerInnen sind darum gebeten, selbsttaetig ein Backup/Archiv (am Institutsarbeitsplatzrechner z.B.) zu fuehren. Ausstattung: - 32 Blades mit je 2 Sockeln mit je einem 8-Kerner @ 2,2 GHz ==> 32 * 16 = 512 Cores (Hyperthreading ist aufgedreht ==> 1024 HyperThreads) - je Blade 2 x 32 GigaByte RAM (dh. in Summe 2 TeraByte) - SuSE SLES 11 SP1; Linux 2.6.32 x86_64; interaktiver Multiuser-Betrieb ohne Rechenlaufverwaltungssystem Es wurde auf zusie ein cpuset (Ressourcenpaket aus CPU-Kernen und Speichermodulen) im Umfang von 256 Rechenkerne und rund einem Terabyte RAM unter dem Namen /Upper256sh angelegt (das steht fuer "oberer Teil der kleinen UV ohne HyperThreading"), in dem alle "riscXX" accounts laufen: risc33@zusie:~> my_cpuset.csh cpuset: /Upper256sh allowed resource Ids: Cpus_allowed_list: 256-511 Mems_allowed_list: 32-63 risc33@zusie:~> meminfo-free-RAM === UV1000 vnode Memory Info: CPUset: /Upper256sh mems: 32,33,34,35,36,37,38,39,40,41,42,43,44,45,46,47,48,49,50,51,52,53,54,55,56,57,58,59,60,61,62,63 idx TOTAL kB Free kB Used kB Used % -------------------+----------------+-------------- ------- 32 33554432 kB | 30423360 kB | 3131072 kB 9.33 % 33 33538048 kB | 31342508 kB | 2195540 kB 6.55 % 34 33554432 kB | 31322832 kB | 2231600 kB 6.65 % 35 33538048 kB | 31331224 kB | 2206824 kB 6.58 % 36 33554432 kB | 31292348 kB | 2262084 kB 6.74 % .. ............ .. .. ............ .. 60 33554432 kB | 31277432 kB | 2277000 kB 6.79 % 61 33538048 kB | 31330976 kB | 2207072 kB 6.58 % 62 33554432 kB | 28311800 kB | 5242632 kB 15.62 % 63 33538048 kB | 31272736 kB | 2265856 kB 6.76 % ------------ | ------------ | ------------ ------- 1023.750 gb | 952.128 gb | 71.623 gb 7.00 % CPU Cores: 256 (on 32 vnodes) Mit Hilfe von dplace (bzw. als extra Variante fuer OpenMP-Programmierung omplace) kann auch fuer MPI-Programme eine CPU-Affinitaet (die "logischen" CPU Ids beziehen sich auf die Indizes innerhalb des cpusets) erzwungen werden. Und dlook zeigt die erreichte Zuordnung. Aber auch im "einfachen" Linux top (es wurde eine eigene Variante namens jkutop programmiert ... sehr praktisch zum Aufspueren von "CPU / SystemCall Hogs" auf einer AltixUV) kann "Last used cpu (SMP)" nuetzlich sein, um festzustellen, ob man/frau 2 Prozesse auf denselben CPU-Kern gebunden hat. Unter zusie:/usr/local/docs liegen einige SGI Handbuecher bereit. Eventuell interessant: - SGI UPC (Unified Parallel C ... Datenparalleles Paradigma; siehe "man sgiupc") module load sgi-upc-devel man sgiupc module load mpt sgiupc -O -v -LANG:upc_threads=8 test.c -o test mpirun -np 8 ./test - CilkPlus (kommt mittlerweile mit dem Intel Compiler): module load intelcompiler man icc --> nach "cilk" suchen ls /apps/intel/compiler/composerxe-2011.3.174/Samples/en_US/C++/cilk_samples/ --> Makefile cilktime.h linear-recurrence.cpp matrix-multiply.cpp matrix.cpp qsort-mutex.cpp qsort.cpp
Zuletzt geändert: Montag, 24. Februar 2020, 10:01