[mephi-hpc] Переустановка ПО
sms013 at campus.mephi.ru
sms013 at campus.mephi.ru
Wed Sep 11 13:41:39 MSK 2019
Здравствуйте. При запуске gromacs на кластере Черенков используя
/usr/bin/mdrun_mpi.openmpi выводится сообщение (на скриншоте), которое
указывает на то, что gromacs был скомпилирован используя не оптимальный
набор инструкций, что ведет к огромной потере производительности (более
чем в 16 раз). Нельзя ли переустановить gromacs используя опции cmake
-DGMX_SIMD=AVX2_256 и -GMX_USE_RDTSCP=ON
http://manual.gromacs.org/documentation/2019.3/install-guide/index.html#
> В разных дистрибутивах названия исполняемых файлов могу отличаться.
> Лучше всего проверять имена файлов через пакетный менеджер.
>
> anikeev at master.unicluster ~ $ equery files gromacs | less
> ...
> /usr/bin/mdrun_mpi
> ...
> anikeev at master.unicluster ~ $ ldd /usr/bin/mdrun_mpi
> ...
> libmpi.so.1 => /usr/bin/../lib64/libmpi.so.1
> (0x00007f58ae6bd000)
>
> anikeev at master.basov ~ $ ldd /usr/bin/mdrun_mpi
> ...
> libmpi.so.1 => /usr/bin/../lib64/libmpi.so.1
> (0x00007fcf80f9d000)
>
> anikeev at master.cherenkov ~ $ dpkg -L gromacs-mpich
> ...
> /usr/bin/mdrun_mpi.mpich
> /usr/bin/mdrun_mpi_d.mpich
> ...
> anikeev at master.cherenkov ~ $ ldd /usr/bin/mdrun_mpi.mpich
> libmpich.so.12 => /usr/lib/x86_64-linux-gnu/libmpich.so.12
> (0x00007f12fb15c000)
> ...
> anikeev at master.cherenkov ~ $ dpkg -L gromacs-openmpi
> ...
> /usr/bin/mdrun_mpi.openmpi
> /usr/bin/mdrun_mpi_d.openmpi
> ...
> anikeev at master.cherenkov ~ $ ldd /usr/bin/mdrun_mpi.openmpi
> libmpi.so.40 => /usr/lib/x86_64-linux-gnu/libmpi.so.40
> (0x00007f8b2f547000)
C уважением,
Шестопалова Милена
-------------- next part --------------
A non-text attachment was scrubbed...
Name: gmx.PNG
Type: image/png
Size: 13588 bytes
Desc: not available
URL: <http://lists.mephi.ru/pipermail/hpc/attachments/20190911/25e324d5/attachment-0002.png>
-------------- next part --------------
A non-text attachment was scrubbed...
Name: gmx.PNG
Type: image/png
Size: 13588 bytes
Desc: not available
URL: <http://lists.mephi.ru/pipermail/hpc/attachments/20190911/25e324d5/attachment-0003.png>
More information about the hpc
mailing list