<div dir="ltr"><div dir="ltr">Спасибо Артём!</div><div dir="ltr">Программа запустилась, однако возникают ошибки (кусок вывода ниже). При этом какие-то данные записываются, но недолго.<div>Запускал так</div><div><p style="margin:0px;white-space:pre-wrap">srun --mpi=openmpi mpirun.openmpi -n 16 ./smilei $FNAME.py</p><p style="margin:0px;white-space:pre-wrap">Компилировал тоже openmpi.</p><p style="margin:0px;white-space:pre-wrap">В чём может быть причина ошибки?</p><p style="margin:0px;white-space:pre-wrap">Спасибо!</p><p style="margin:0px;white-space:pre-wrap">фк </p><div><br></div><div> Initializing diagnostics<br> --------------------------------------------------------------------------------<br>HDF5-DIAG: Error detected in HDF5 (1.10.4) MPI-process 0:<br>  #000: ../../../src/H5F.c line 444 in H5Fcreate(): unable to create file<br>    major: File accessibilty<br>    minor: Unable to open file<br>  #001: ../../../src/H5Fint.c line 1364 in H5F__create(): unable to open file<br>    major: File accessibilty<br>    minor: Unable to open file<br>  #002: ../../../src/H5Fint.c line 1615 in H5F_open(): unable to lock the file<br>    major: File accessibilty<br>    minor: Unable to open file<br>  #003: ../../../src/H5FD.c line 1640 in H5FD_lock(): driver lock request failed<br>    major: Virtual File Layer<br>    minor: Can't update object<br>  #004: ../../../src/H5FDsec2.c line 941 in H5FD_sec2_lock(): unable to lock file, errno = 11, error message = 'Resource temporarily unavailable'<br>    major: File accessibilty<br>    minor: Bad file ID accessed<br>HDF5-DIAG: Error detected in HDF5 (1.10.4) MPI-process 0:<br>  #000: ../../../src/H5A.c line 263 in H5Acreate2(): not a location<br>    major: Invalid arguments to routine<br>    minor: Inappropriate type<br>  #001: ../../../src/H5Gloc.c line 246 in H5G_loc(): invalid object ID<br>    major: Invalid arguments to routine<br>    minor: Bad value<br>HDF5-DIAG: Error detected in HDF5 (1.10.4) MPI-process 0:<br>  #000: ../../../src/H5A.c line 615 in H5Awrite(): not an attribute<br>    major: Invalid arguments to routine<br>    minor: Inappropriate type<br><div><br></div></div></div></div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">Le lun. 10 févr. 2020 à 17:49, anikeev <<a href="mailto:anikeev@ut.mephi.ru">anikeev@ut.mephi.ru</a>> a écrit :<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex">On Thu, 2020-02-06 at 13:33 +0300, Philipp Korneev wrote:<br>
<br>
Здравствуйте!<br>
<br>
> Добрый день, при указании явно библиотеки (HDF5_ROOT_DIR =<br>
> "/usr/lib/x86_64-linux-gnu/hdf5/openmpi/") удалось скомпилировать<br>
> программу. Я не очень понял, каким образом можно выполнить условие "<br>
> нужно придерживаться одной реализации MPI при компиляции и запуске<br>
> программы."<br>
<br>
Это значит, что есть 2 варианта:<br>
<br>
1) Собрать все библиотеки и приложение при помощи mpicc.openmpi и<br>
запустить с помощью mpirun.openmpi<br>
<br>
2) Собрать все библиотеки и приложение при помощи mpicc.mpich и<br>
запустить с помощью mpirun.mpich<br>
<br>
По умолчанию используется OpenMPI, поэтому сборка при помощи mpicc и<br>
запуск при помощи mpirun без постфикосв эквивалентны первому варианту.<br>
<br>
Любая смесь из элементов OpenMPI и MPICH неработоспособна.<br>
<br>
> При запуске я работаю с планировщиком, должен ли я ему указывать<br>
> версию MPI? Каким образом? я попробовал  --mpi=openmpi, но это не<br>
> изменило результат.<br>
<br>
> Возможно, с этим связана следующая ошибка. При запуске через<br>
> srun  -n $NPROC ./smilei $FNAME.py<br>
> или<br>
> srun --mpi=openmpi -n $NPROC ./smilei $FNAME.py<br>
> происходит ошибка. Среди прочих сообщений такое:<br>
<br>
Я бы рекомендовал создавать статические скрипты для каждого запуска<br>
(можно автоматически) и запускать их командой sbatch. Иначе Вы<br>
замучаетесь в отладкой, поскольку не сохраняется никакой информации о<br>
предыдущих запусках. В скрипте запуск приложения должен осуществляться<br>
при помощи соответствующего mpirun.<br>
<br>
> The application appears to have been direct launched using "srun",<br>
> but OMPI was not built with SLURM's PMI support and therefore cannot<br>
> execute. There are several options for building PMI support under<br>
> SLURM, depending upon the SLURM version you are using:<br>
> <br>
>   version 16.05 or later: you can use SLURM's PMIx support. This<br>
>   requires that you configure and build SLURM --with-pmix.<br>
> <br>
>   Versions earlier than 16.05: you must use either SLURM's PMI-1 or<br>
>   PMI-2 support. SLURM builds PMI-1 by default, or you can manually<br>
>   install PMI-2. You must then build Open MPI using --with-pmi<br>
> pointing<br>
>   to the SLURM PMI library location.<br>
> <br>
> Please configure as appropriate and try again.<br>
<br>
Если Вы хотите использовать механизм запуска --mpi=openmpi, Вам нужно<br>
использовать mpirun.openmpi:<br>
<br>
srun --mpi=openmpi mpirun.openmpi /путь/до/программы<br>
<br>
Запуск при помощи механизма PMIX не поддерживается сборкой Slrum из<br>
репозитория Debian по умолчанию, но он имеет смысл только на задачах с<br>
больше 10e6 потоков:<br>
<br>
<a href="https://slurm.schedmd.com/SLUG15/PMIx.pdf" rel="noreferrer" target="_blank">https://slurm.schedmd.com/SLUG15/PMIx.pdf</a><br>
<br>
> Подскажите пожалуйста что я делаю не так.<br>
> Спасибо!<br>
> фк<br>
> <br>
> Le lun. 3 févr. 2020 à 12:06, anikeev <<a href="mailto:anikeev@ut.mephi.ru" target="_blank">anikeev@ut.mephi.ru</a>> a écrit :<br>
> > On Sun, 2020-02-02 at 17:07 +0300, Philipp Korneev wrote:<br>
> > > Добрый день,<br>
> > <br>
> > Здравствуйте!<br>
> > <br>
> > > при попытке скомпилировать программу SMILEI (<br>
> > > <a href="https://smileipic.github.io/Smilei/index.html" rel="noreferrer" target="_blank">https://smileipic.github.io/Smilei/index.html</a>) на Черенкове<br>
> > > появляется ошибка<br>
> > <br>
> > > src/Tools/H5.h:16:2: error: #error "HDF5 was not built with --<br>
> > enable-<br>
> > > parallel option"<br>
> > >  #error "HDF5 was not built with --enable-parallel option" <br>
> > <br>
> > В Debian последовательная и различные реализации параллельной<br>
> > версии<br>
> > библиотеки HDF5 отличаются по названию:<br>
> > <br>
> > anikeev@master.cherenkov ~ $ dpkg -l | grep hdf5<br>
> > ...<br>
> > ii  libhdf5-103:amd64 <br>
> > ii  libhdf5-dev<br>
> > ...<br>
> > ii  libhdf5-mpich-103:amd64<br>
> > ii  libhdf5-mpich-dev<br>
> > ...<br>
> > ii  libhdf5-openmpi-103:amd64<br>
> > ii  libhdf5-openmpi-dev<br>
> > ...<br>
> > <br>
> > > Можно ли её исправить?<br>
> > <br>
> > Если Вы хотите использовать параллельную версию, используйте<br>
> > соответствующие постфиксы в названии библиотеки. Реализацию MPI<br>
> > можно<br>
> > выбрать любую, но нужно придерживаться одной реализации MPI при<br>
> > компиляции и запуске программы. Если у Вас нет предпочтений, я бы<br>
> > рекомендовал OpenMPI.<br>
> > <br>
> > Если Вам понадобятся полные пути до файлов, их можно узнать так:<br>
> > <br>
> > anikeev@master.cherenkov ~ $ dpkg-query -L libhdf5-openmpi-<br>
> > 103:amd64<br>
> > ...<br>
> > anikeev@master.cherenkov ~ $ dpkg-query -L libhdf5-openmpi-dev<br>
> > ...<br>
> > <br>
> > > Спасибо!<br>
> > > фк<br>
> > > _______________________________________________<br>
> > > hpc mailing list<br>
> > > <a href="mailto:hpc@lists.mephi.ru" target="_blank">hpc@lists.mephi.ru</a><br>
> > > <a href="https://lists.mephi.ru/listinfo/hpc" rel="noreferrer" target="_blank">https://lists.mephi.ru/listinfo/hpc</a><br>
> > _______________________________________________<br>
> > hpc mailing list<br>
> > <a href="mailto:hpc@lists.mephi.ru" target="_blank">hpc@lists.mephi.ru</a><br>
> > <a href="https://lists.mephi.ru/listinfo/hpc" rel="noreferrer" target="_blank">https://lists.mephi.ru/listinfo/hpc</a><br>
-- <br>
С уважением,<br>
инженер отдела Unix-технологий МИФИ,<br>
Аникеев Артём.<br>
Тел.: 8<br>
(495) 788-56-99, доб. 8998<br>
_______________________________________________<br>
hpc mailing list<br>
<a href="mailto:hpc@lists.mephi.ru" target="_blank">hpc@lists.mephi.ru</a><br>
<a href="https://lists.mephi.ru/listinfo/hpc" rel="noreferrer" target="_blank">https://lists.mephi.ru/listinfo/hpc</a><br>
</blockquote></div></div>