[mephi-hpc] Переустановка ПО
anikeev at ut.mephi.ru
anikeev at ut.mephi.ru
Thu Aug 29 13:43:24 MSK 2019
sms013 at campus.mephi.ru писал 2019-08-29 00:59:
> Здравствуйте. Не могли бы вы переустановить gromacs, используя
> openmpi. Gromacs который установлен сейчас не позволяет использовать
> больше 1 узла. Т.е. сейчас стоит версия для одного компьютера, а не
> для кластера. Для кластера нужно компилировать используя переменную
> cmake -DGMX_MPI=on
Добрый день!
На всех кластерах установлены версии с поддержкой MPI:
anikeev at master.unicluster ~ $ eix gromacs
...
[U] sci-chemistry/gromacs
...
Installed versions: 2018.3{tbz2}(03:59:56 PM 10/30/2018)(blas fftw
hwloc lapack mpi openmp single-precision threads tng -X -cuda -doc
-double-precision -mkl -offensive -opencl -test CPU_FLAGS_X86="sse2
sse4_1 -avx -avx2 -fma4")
anikeev at master.basov ~ $ eix gromacs
...
[U] sci-chemistry/gromacs
...
Installed versions: 2018.3{tbz2}(03:50:12 PM 10/30/2018)(blas fftw
hwloc lapack mpi openmp single-precision threads tng -X -cuda -doc
-double-precision -mkl -offensive -opencl -test CPU_FLAGS_X86="avx sse2
sse4_1 -avx2 -fma4")
anikeev at master.cherenkov ~ $ dpkg -l | grep gromacs
...
ii gromacs-mpich
ii gromacs-openmpi
С уважением,
Аникеев Артем.
> С уважением,
> Шестопалова Милена
> _______________________________________________
> hpc mailing list
> hpc at lists.mephi.ru
> https://lists.mephi.ru/listinfo/hpc
More information about the hpc
mailing list