[mephi-hpc] Переустановка ПО
anikeev
anikeev at ut.mephi.ru
Wed Sep 11 15:30:10 MSK 2019
On Wed, 2019-09-11 at 13:41 +0300, sms013 at campus.mephi.ru wrote:
Добрый день!
> Здравствуйте. При запуске gromacs на кластере Черенков используя
> /usr/bin/mdrun_mpi.openmpi выводится сообщение (на скриншоте),
> которое
> указывает на то, что gromacs был скомпилирован используя не
> оптимальный
> набор инструкций, что ведет к огромной потере производительности
> (более
> чем в 16 раз). Нельзя ли переустановить gromacs используя опции
> cmake
> -DGMX_SIMD=AVX2_256 и -GMX_USE_RDTSCP=ON
Вы правы. Системно на кластере устанавливаются пакеты из дистрибутива
debian в оригинальном виде. Ресурсоёмкие алгоритмы должны собираться из
исходного кода под конкретную микроархитекутру процессора с опциями для
конкретной задачи. Сборка из исходного кода и оптимизация под задачу -
это работа пользователя. Работа системных администраторов заключается в
поддержании вычислительной инфраструктуры и ответах на вопросы
пользователей при возникновении вопросов по сборке и оптимизации.
Пример конфликтов опций пользователей для различных расчетов: при
сборке под точность double SIMD AVX2 FMA дает 16 FLOP на такт. При
сборке с точностью single получается 32 FLOP на такт. Если собрать с
double, у половины пользователей будет только 50% производительности.
Если собрать с single, у другой половины будут некорректные результаты.
Поддерживать специализированный дистрибутив под задачи каждого из почти
400 пользователей и обеспечивать визуализацию для разрешения конфликтов
по библиотекам невозможно.
Обращайтесь при возникновении вопросов по сборке и оптимизации.
--
С уважением,
инженер отдела Unix-технологий МИФИ,
Аникеев Артём.
Тел.: 8
(495) 788-56-99, доб. 8998
> http://manual.gromacs.org/documentation/2019.3/install-guide/index.html#
>
>
> > В разных дистрибутивах названия исполняемых файлов могу отличаться.
> > Лучше всего проверять имена файлов через пакетный менеджер.
> >
> > anikeev at master.unicluster ~ $ equery files gromacs | less
> > ...
> > /usr/bin/mdrun_mpi
> > ...
> > anikeev at master.unicluster ~ $ ldd /usr/bin/mdrun_mpi
> > ...
> > libmpi.so.1 => /usr/bin/../lib64/libmpi.so.1
> > (0x00007f58ae6bd000)
> >
> > anikeev at master.basov ~ $ ldd /usr/bin/mdrun_mpi
> > ...
> > libmpi.so.1 => /usr/bin/../lib64/libmpi.so.1
> > (0x00007fcf80f9d000)
> >
> > anikeev at master.cherenkov ~ $ dpkg -L gromacs-mpich
> > ...
> > /usr/bin/mdrun_mpi.mpich
> > /usr/bin/mdrun_mpi_d.mpich
> > ...
> > anikeev at master.cherenkov ~ $ ldd /usr/bin/mdrun_mpi.mpich
> > libmpich.so.12 => /usr/lib/x86_64-linux-gnu/libmpich.so.12
> > (0x00007f12fb15c000)
> > ...
> > anikeev at master.cherenkov ~ $ dpkg -L gromacs-openmpi
> > ...
> > /usr/bin/mdrun_mpi.openmpi
> > /usr/bin/mdrun_mpi_d.openmpi
> > ...
> > anikeev at master.cherenkov ~ $ ldd /usr/bin/mdrun_mpi.openmpi
> > libmpi.so.40 => /usr/lib/x86_64-linux-gnu/libmpi.so.40
> > (0x00007f8b2f547000)
>
> C уважением,
> Шестопалова Милена
> _______________________________________________
> hpc mailing list
> hpc at lists.mephi.ru
> https://lists.mephi.ru/listinfo/hpc
More information about the hpc
mailing list