[mephi-hpc] Технические работы на кластере

Andrew A. Savchenko bircoph at ut.mephi.ru
Fri Oct 4 22:35:30 MSK 2013


Уважаемые пользователи,

Доступ к кластеру был восстановлен ко всей функциональности, кроме
распределённой файловой системы на ~/pool (/mnt/cluster/...). Работы
с OrangeFS продолжаются, о их окончании будет объявлено позже. 

На кластере было проведено серьёзное обновление используемых
библиотек, поэтому возможны проблемы с запуском приложений, собранных
со старыми версиями *.so. Для их решения следует перекомпилировать
проблемные приложения.

Так же были установлены дополнительные библиотеки и приложения, 
с учётом потребностей и задач нынешних пользователей.

Доступны библиотеки, предоставляющие следующие интерфейсы
(звёздочкой отмечены используемые по умолчанию):
BLAS:
atlas
atlas-threads
eigen
gotoblas-openmp
openblas-openmp *
reference

LAPACK:
atlas *
atlas-threads
reference

BLACS:
mpiblas *

CBLAS:
atlas
atlas-threads
eigen
gotoblas-openmp
openblas-openmp *
reference

LAPACKE:
reference *

По тесту Linpack (HPL) лучшим вариантом BLAS является
openblas-openmp, а LAPACK — atlas, которые и задействованы сейчас по
умолчанию. Для использования остальных библиотек необходимо указывать
пути к ним при линковки или использовать LD_PRELOAD.

Так же были установлены следующие приложения:
gamess-20130501.1
geant-4.9.6_p02
geant-vmc-3.1.15a
gnuplot-4.6.3
lammps-20130923
maxima-5.30.0
octave-3.6.4
openfoam-2.2.1
pythia-6.4.27
pythia-8.1.76
root-5.34.09
scipy-0.12.0

По данным Linpack (HPL) производительность одного узла кластера
составляет 58.12 GFlops = 60.69% пиковой, а всех 13 узлов:
705.2 GFlops = 56.64% пиковой. Оптимальной является конфигурация
(P,Q): P=1, Q=N, где N число ядер, поэтому пользовательским
приложениям рекомендуется учитывать издержки и высокие задержки
(latency) при интерконнекте.

Best regards,
Andrew Savchenko
-------------- next part --------------
A non-text attachment was scrubbed...
Name: not available
Type: application/pgp-signature
Size: 836 bytes
Desc: not available
URL: <http://lists.ut.mephi.ru/pipermail/hpc/attachments/20131004/6a212156/attachment.sig>


More information about the hpc mailing list