[mephi-hpc] hdf5.h
anikeev
anikeev at ut.mephi.ru
Mon Feb 10 17:49:49 MSK 2020
On Thu, 2020-02-06 at 13:33 +0300, Philipp Korneev wrote:
Здравствуйте!
> Добрый день, при указании явно библиотеки (HDF5_ROOT_DIR =
> "/usr/lib/x86_64-linux-gnu/hdf5/openmpi/") удалось скомпилировать
> программу. Я не очень понял, каким образом можно выполнить условие "
> нужно придерживаться одной реализации MPI при компиляции и запуске
> программы."
Это значит, что есть 2 варианта:
1) Собрать все библиотеки и приложение при помощи mpicc.openmpi и
запустить с помощью mpirun.openmpi
2) Собрать все библиотеки и приложение при помощи mpicc.mpich и
запустить с помощью mpirun.mpich
По умолчанию используется OpenMPI, поэтому сборка при помощи mpicc и
запуск при помощи mpirun без постфикосв эквивалентны первому варианту.
Любая смесь из элементов OpenMPI и MPICH неработоспособна.
> При запуске я работаю с планировщиком, должен ли я ему указывать
> версию MPI? Каким образом? я попробовал --mpi=openmpi, но это не
> изменило результат.
> Возможно, с этим связана следующая ошибка. При запуске через
> srun -n $NPROC ./smilei $FNAME.py
> или
> srun --mpi=openmpi -n $NPROC ./smilei $FNAME.py
> происходит ошибка. Среди прочих сообщений такое:
Я бы рекомендовал создавать статические скрипты для каждого запуска
(можно автоматически) и запускать их командой sbatch. Иначе Вы
замучаетесь в отладкой, поскольку не сохраняется никакой информации о
предыдущих запусках. В скрипте запуск приложения должен осуществляться
при помощи соответствующего mpirun.
> The application appears to have been direct launched using "srun",
> but OMPI was not built with SLURM's PMI support and therefore cannot
> execute. There are several options for building PMI support under
> SLURM, depending upon the SLURM version you are using:
>
> version 16.05 or later: you can use SLURM's PMIx support. This
> requires that you configure and build SLURM --with-pmix.
>
> Versions earlier than 16.05: you must use either SLURM's PMI-1 or
> PMI-2 support. SLURM builds PMI-1 by default, or you can manually
> install PMI-2. You must then build Open MPI using --with-pmi
> pointing
> to the SLURM PMI library location.
>
> Please configure as appropriate and try again.
Если Вы хотите использовать механизм запуска --mpi=openmpi, Вам нужно
использовать mpirun.openmpi:
srun --mpi=openmpi mpirun.openmpi /путь/до/программы
Запуск при помощи механизма PMIX не поддерживается сборкой Slrum из
репозитория Debian по умолчанию, но он имеет смысл только на задачах с
больше 10e6 потоков:
https://slurm.schedmd.com/SLUG15/PMIx.pdf
> Подскажите пожалуйста что я делаю не так.
> Спасибо!
> фк
>
> Le lun. 3 févr. 2020 à 12:06, anikeev <anikeev at ut.mephi.ru> a écrit :
> > On Sun, 2020-02-02 at 17:07 +0300, Philipp Korneev wrote:
> > > Добрый день,
> >
> > Здравствуйте!
> >
> > > при попытке скомпилировать программу SMILEI (
> > > https://smileipic.github.io/Smilei/index.html) на Черенкове
> > > появляется ошибка
> >
> > > src/Tools/H5.h:16:2: error: #error "HDF5 was not built with --
> > enable-
> > > parallel option"
> > > #error "HDF5 was not built with --enable-parallel option"
> >
> > В Debian последовательная и различные реализации параллельной
> > версии
> > библиотеки HDF5 отличаются по названию:
> >
> > anikeev at master.cherenkov ~ $ dpkg -l | grep hdf5
> > ...
> > ii libhdf5-103:amd64
> > ii libhdf5-dev
> > ...
> > ii libhdf5-mpich-103:amd64
> > ii libhdf5-mpich-dev
> > ...
> > ii libhdf5-openmpi-103:amd64
> > ii libhdf5-openmpi-dev
> > ...
> >
> > > Можно ли её исправить?
> >
> > Если Вы хотите использовать параллельную версию, используйте
> > соответствующие постфиксы в названии библиотеки. Реализацию MPI
> > можно
> > выбрать любую, но нужно придерживаться одной реализации MPI при
> > компиляции и запуске программы. Если у Вас нет предпочтений, я бы
> > рекомендовал OpenMPI.
> >
> > Если Вам понадобятся полные пути до файлов, их можно узнать так:
> >
> > anikeev at master.cherenkov ~ $ dpkg-query -L libhdf5-openmpi-
> > 103:amd64
> > ...
> > anikeev at master.cherenkov ~ $ dpkg-query -L libhdf5-openmpi-dev
> > ...
> >
> > > Спасибо!
> > > фк
> > > _______________________________________________
> > > hpc mailing list
> > > hpc at lists.mephi.ru
> > > https://lists.mephi.ru/listinfo/hpc
> > _______________________________________________
> > hpc mailing list
> > hpc at lists.mephi.ru
> > https://lists.mephi.ru/listinfo/hpc
--
С уважением,
инженер отдела Unix-технологий МИФИ,
Аникеев Артём.
Тел.: 8
(495) 788-56-99, доб. 8998
More information about the hpc
mailing list