[mephi-hpc] Переустановка ПО

anikeev at ut.mephi.ru anikeev at ut.mephi.ru
Thu Aug 29 13:43:24 MSK 2019


sms013 at campus.mephi.ru писал 2019-08-29 00:59:
> Здравствуйте. Не могли бы вы переустановить gromacs, используя
> openmpi. Gromacs который установлен сейчас не позволяет использовать
> больше 1 узла. Т.е. сейчас стоит версия для одного компьютера, а не
> для кластера. Для кластера нужно компилировать используя переменную
> cmake -DGMX_MPI=on

Добрый день!

На всех кластерах установлены версии с поддержкой MPI:

anikeev at master.unicluster ~ $ eix gromacs
...
[U] sci-chemistry/gromacs
...
      Installed versions:  2018.3{tbz2}(03:59:56 PM 10/30/2018)(blas fftw 
hwloc lapack mpi openmp single-precision threads tng -X -cuda -doc 
-double-precision -mkl -offensive -opencl -test CPU_FLAGS_X86="sse2 
sse4_1 -avx -avx2 -fma4")

anikeev at master.basov ~ $ eix gromacs
...
[U] sci-chemistry/gromacs
...
      Installed versions:  2018.3{tbz2}(03:50:12 PM 10/30/2018)(blas fftw 
hwloc lapack mpi openmp single-precision threads tng -X -cuda -doc 
-double-precision -mkl -offensive -opencl -test CPU_FLAGS_X86="avx sse2 
sse4_1 -avx2 -fma4")

anikeev at master.cherenkov ~ $ dpkg -l | grep gromacs
...
ii  gromacs-mpich
ii  gromacs-openmpi

С уважением,
Аникеев Артем.

> С уважением,
> Шестопалова Милена
> _______________________________________________
> hpc mailing list
> hpc at lists.mephi.ru
> https://lists.mephi.ru/listinfo/hpc



More information about the hpc mailing list