[mephi-hpc] Изменение настроек очередей задач
anikeev
anikeev at ut.mephi.ru
Thu Jan 31 18:19:28 MSK 2019
Уважаемы коллеги!
Обращаю Ваше внимание на изменение настроек очередей задач на
вычислительных кластерах.
По причине большого числа задач в очередях сокращено количество
ресурсов, доступных для длительных задач или одному пользователю:
unicluster:
qmgr -c 'p s'
...
set queue xxl resources_available.procct = 16
set queue long resources_available.procct = 32
...
cat /var/spool/maui/maui.cfg
...
USERCFG[DEFAULT] MAXPROC=64
basov:
qmgr -c 'p s'
...
set queue xxl resources_available.procct = 96
set queue long resources_available.procct = 192
...
cat /var/spool/maui/maui.cfg
...
USERCFG[DEFAULT] MAXPROC=192
Изменения не касаются уже запущенных задач, но касаются задач,
находящихся в очереди. Настройки кластера cherenkov не менялись, т.к.
только на нём есть высокопроизводительная сеть с неблокирующей
архитектурой и он лучше всего подходит для больших задач.
Обращаю Ваше внимание, что отладка, профилирование и оптимизация
приложений позволяет сократить время выполнения задачи и использовать
более быстрые очереди.
Проверьте:
1) Имеются ли обновления для Вашего приложения?
2) Используются ли высокопроизводительные математические библиотеки в
Вашем приложении? (GSL, BLAS, LAPACK, FFTW, Boost...)
3) Какие опции оптимизации компилятора (gcc -Ofast -march=native ...)
использовались?
4) Подобрана ли оптимальная конфигурация вычислительный потоков с
учётом нелинейного роста производительности от количества
использованных потоков?
5) Используется ли технология Hybrid MPI, позволяющая передавать данные
по протоколам OpenMP (внутри узла) и MPI (между узлами) одновременно?
6) Проводилась ли отладка и профилирование для приложений,
разработанных самостоятельно? Профилирование можно провести с
использованием утилиты perf. Какая функция является узким горлышком?
Что является узким горлышком - работа с сетью, работа с файловой
системой, работа с оперативной памятью?
--
С уважением,
инженер отдела Unix-технологий МИФИ,
Аникеев Артём.
Тел.: 8
(495) 788-56-99, доб. 8998
More information about the hpc
mailing list