[mephi-hpc] Переустановка ПО

anikeev anikeev at ut.mephi.ru
Wed Sep 11 15:30:10 MSK 2019


On Wed, 2019-09-11 at 13:41 +0300, sms013 at campus.mephi.ru wrote:

Добрый день!

> Здравствуйте. При запуске gromacs на кластере Черенков используя 
> /usr/bin/mdrun_mpi.openmpi выводится сообщение (на скриншоте),
> которое 
> указывает на то, что gromacs был скомпилирован используя не
> оптимальный 
> набор инструкций, что ведет к огромной потере производительности
> (более 
> чем в 16 раз). Нельзя ли  переустановить gromacs используя опции
> cmake 
> -DGMX_SIMD=AVX2_256 и -GMX_USE_RDTSCP=ON

Вы правы. Системно на кластере устанавливаются пакеты из дистрибутива
debian в оригинальном виде. Ресурсоёмкие алгоритмы должны собираться из
исходного кода под конкретную микроархитекутру процессора с опциями для
конкретной задачи. Сборка из исходного кода и оптимизация под задачу -
это работа пользователя. Работа системных администраторов заключается в
поддержании вычислительной инфраструктуры и ответах на вопросы
пользователей при возникновении вопросов по сборке и оптимизации.

Пример конфликтов опций пользователей для различных расчетов: при
сборке под точность double SIMD AVX2 FMA дает 16 FLOP на такт. При
сборке с точностью single получается 32 FLOP на такт. Если собрать с
double, у половины пользователей будет только 50% производительности.
Если собрать с single, у другой половины будут некорректные результаты.
Поддерживать специализированный дистрибутив под задачи каждого из почти
400 пользователей и обеспечивать визуализацию для разрешения конфликтов
по библиотекам невозможно.

Обращайтесь при возникновении вопросов по сборке и оптимизации.

-- 
С уважением,
инженер отдела Unix-технологий МИФИ,
Аникеев Артём.
Тел.: 8
(495) 788-56-99, доб. 8998

> http://manual.gromacs.org/documentation/2019.3/install-guide/index.html#
> 
> 
> > В разных дистрибутивах названия исполняемых файлов могу отличаться.
> > Лучше всего проверять имена файлов через пакетный менеджер.
> > 
> > anikeev at master.unicluster ~ $ equery files gromacs | less
> > ...
> > /usr/bin/mdrun_mpi
> > ...
> > anikeev at master.unicluster ~ $ ldd /usr/bin/mdrun_mpi
> > ...
> >         libmpi.so.1 => /usr/bin/../lib64/libmpi.so.1
> > (0x00007f58ae6bd000)
> > 
> > anikeev at master.basov ~ $ ldd /usr/bin/mdrun_mpi
> > ...
> >         libmpi.so.1 => /usr/bin/../lib64/libmpi.so.1
> > (0x00007fcf80f9d000)
> > 
> > anikeev at master.cherenkov ~ $ dpkg -L gromacs-mpich
> > ...
> > /usr/bin/mdrun_mpi.mpich
> > /usr/bin/mdrun_mpi_d.mpich
> > ...
> > anikeev at master.cherenkov ~ $ ldd /usr/bin/mdrun_mpi.mpich
> >         libmpich.so.12 => /usr/lib/x86_64-linux-gnu/libmpich.so.12
> > (0x00007f12fb15c000)
> > ...
> > anikeev at master.cherenkov ~ $ dpkg -L gromacs-openmpi
> > ...
> > /usr/bin/mdrun_mpi.openmpi
> > /usr/bin/mdrun_mpi_d.openmpi
> > ...
> > anikeev at master.cherenkov ~ $ ldd /usr/bin/mdrun_mpi.openmpi
> >         libmpi.so.40 => /usr/lib/x86_64-linux-gnu/libmpi.so.40
> > (0x00007f8b2f547000)
> 
> C уважением,
> Шестопалова Милена
> _______________________________________________
> hpc mailing list
> hpc at lists.mephi.ru
> https://lists.mephi.ru/listinfo/hpc



More information about the hpc mailing list