<div dir="ltr"><div>+
<span class="gmail-gI"><span>NRNU MEPhI HPC discussion list <<a href="mailto:hpc@lists.mephi.ru">hpc@lists.mephi.ru</a>></span></span></div><br><div><div dir="ltr" class="gmail_signature" data-smartmail="gmail_signature"><div dir="ltr"><div dir="auto"><div dir="ltr" style="font-size:12.8px">С уважением, Кулямин П.А.<br></div><div dir="ltr" style="font-size:12.8px"><div dir="auto">Аспирант 3 курса НИЯУ МИФИ<br></div><div>Кафедра № 67 "Физика конденсированных сред"<br></div><div dir="auto">Научный руководитель: Маслов М.М.<br></div><div dir="auto">Тел:8-905-582-00-63</div></div></div></div></div></div><br></div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">сб, 6 июл. 2024 г. в 02:56, Павел Кулямин <<a href="mailto:dryes20115@gmail.com">dryes20115@gmail.com</a>>:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div>Добрый день!</div><div><br></div><div>Я установил dftb+ согласно вашим рекомендациям, а именно:</div><div><br></div><div>
wget <a href="https://github.com/dftbplus/dftbplus/archive/refs/tags/24.1.tar.gz" rel="noreferrer" target="_blank">https://github.com/dftbplus/dftbplus/archive/refs/tags/24.1.tar.gz</a> <br></div><div>tar -xzf 24.1.tar.gz</div><div>cd dftbplus-24.1</div><div>mkdir build</div><div>cd build</div><div>FC=gfortran CC=gcc cmake -DWITH_OMP=N -DWITH_MPI=Y -DSCALAPACK_LIBRARY=scalapack-openmpi -DCMAKE_INSTALL_PREFIX=/mnt/pool/6/pakuliamin/dftbplus-24.1_mpirun -B_build ../</div><div>cmake --build _build -- -j <br></div><div> cmake --install _build</div><div>cd /mnt/pool/6/pakuliamin/dftbplus-24.1_mpirun/bin</div><div><br></div><div>Далее в эту папку я положил файл dftb_in.hsd (во вложении) и папку slakos с псевдопотенциалами, также во вложении. <br></div><div><br></div><div>Далее запустил тестовый расчет командой:</div><div>./dftb+</div><div><br></div><div>Получил следующую ошибку (полный вывод во вложении):</div><div>--------------------------------------------------------------------------------<br><br>*** Geometry step: 0<br><br>[tensor:19431] *** An error occurred in MPI_Win_allocate_shared<br>[tensor:19431] *** reported by process [26673153,0]<br>[tensor:19431] *** on communicator MPI COMMUNICATOR 3 SPLIT_TYPE FROM 0<br>[tensor:19431] *** MPI_ERR_INTERN: internal error<br>[tensor:19431] *** MPI_ERRORS_ARE_FATAL (processes in this communicator will now abort,<br>[tensor:19431] *** and potentially your MPI job)<br></div><div><br></div><div>В случае запуска с использованием openmpi:</div><div><br></div><div>mpirun -np 1 dftb+ </div><div><br></div><div>Результат аналогичный.</div><div><br></div><div>mpirun -np 2 dftb+ <br></div><div><br></div><div>Полный результат во вложении:<br></div><div><br></div><div>WARNING!<br>-> Insufficient atoms for this number of MPI processors<br>ERROR!<br>-> Processor grid (1 x 2) too big (> 1 x 1)<br>--------------------------------------------------------------------------<br>MPI_ABORT was invoked on rank 1 in communicator MPI_COMM_WORLD<br>with errorcode 1.<br><br>NOTE: invoking MPI_ABORT causes Open MPI to kill all MPI processes.<br>You may or may not see output from other processes, depending on<br>exactly when Open MPI kills them.<br>--------------------------------------------------------------------------<br>[tensor:19791] 1 more process has sent help message help-mpi-api.txt / mpi-abort<br>[tensor:19791] Set MCA parameter "orte_base_help_aggregate" to 0 to see all help / error messages</div><div><br></div><div>Подскажите пожалуйста, в чем я мог ошибиться? <br></div><div><br></div><div>Если я правильно понимаю, то проблема в том что процесс обращается не в то место в памяти. <br></div><div><br></div><div>Приложенный скрипт удавалось запустить при запуске на локальной машине.</div><div><br></div><div><div><div dir="ltr" class="gmail_signature"><div dir="ltr"><div dir="auto"><div dir="ltr" style="font-size:12.8px">С уважением, Кулямин П.А.<br></div><div dir="ltr" style="font-size:12.8px"><div dir="auto">Аспирант 3 курса НИЯУ МИФИ<br></div><div>Кафедра № 67 "Физика конденсированных сред"<br></div><div dir="auto">Научный руководитель: Маслов М.М.<br></div><div dir="auto">Тел:8-905-582-00-63</div></div></div></div></div></div><br></div></div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">пн, 27 мая 2024 г. в 15:59, <<a href="mailto:anikeev@ut.mephi.ru" target="_blank">anikeev@ut.mephi.ru</a>>:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex">Павел Кулямин писал 2024-05-25 00:07:<br>
> Добрый день!<br>
<br>
Здравствуйте!<br>
<br>
> При попытке установить ПО dftb+ на<br>
> кластере tensor возникает следующая<br>
> ошибка:<br>
> <br>
> 1) git clone <a href="https://github.com/dftbplus/dftbplus.git" rel="noreferrer" target="_blank">https://github.com/dftbplus/dftbplus.git</a><br>
> 2) Изменил в файле :<br>
> <br>
> Следующие строчки:<br>
> <br>
> option(WITH_OMP "Whether OpenMP thread parallisation should be<br>
> enabled" FALSE)<br>
> <br>
> option(WITH_MPI "Whether DFTB+ should support MPI-parallelism" TRUE)<br>
> <br>
> 3) FC=gfortran CC=gcc cmake<br>
> -DCMAKE_INSTALL_PREFIX=/mnt/pool/6/pakuliamin/dft-bplus/dftbplus -B<br>
> _build .<br>
> <br>
> Получил следующую ошибку:<br>
> <br>
> CMake Error at<br>
> /usr/lib/cmake/scalapack-2.2.1.mpich/scalapack-targets.cmake:93<br>
> (message):<br>
> The imported target "scalapack" references the file<br>
> <br>
> "/usr/lib/libscalapack-mpich.so.2.2.1"<br>
> <br>
> but this file does not exist. Possible reasons include:<br>
> <br>
> * The file was deleted, renamed, or moved to another location.<br>
> <br>
> * An install or uninstall procedure did not complete successfully.<br>
> <br>
> * The installation package was faulty and contained<br>
> <br>
> "/usr/lib/cmake/scalapack-2.2.1.mpich/scalapack-targets.cmake"<br>
> <br>
> but not all the files it references.<br>
> <br>
> Call Stack (most recent call first):<br>
> /usr/lib/cmake/scalapack-2.2.1.mpich/scalapack-config.cmake:2<br>
> (include)<br>
> cmake/Modules/FindCustomScalapack.cmake:88 (find_package)<br>
> CMakeLists.txt:203 (find_package)<br>
> <br>
> Подскажите как решить данную<br>
> проблему? Возможно я в чем то ошибаюсь?<br>
<br>
1) Для практических расчетов следует стараться использовать стабильные <br>
релизы. Последний стабильный релиз - 24.1<br>
<br>
wget <a href="https://github.com/dftbplus/dftbplus/archive/refs/tags/24.1.tar.gz" rel="noreferrer" target="_blank">https://github.com/dftbplus/dftbplus/archive/refs/tags/24.1.tar.gz</a><br>
<br>
2) Не стоит сразу править конфигурационные файлы cmake или autotools <br>
вручную - сначала стоит попробовать воспользоваться штатными <br>
инструментами настройки (через параметры командной строки). Править <br>
файлы стоит либо по указанию руководства пользователя приложения, либо <br>
при попытке исправить заведомо нерабочую систему сборки.<br>
<br>
3) Как написано в руководстве пользователя [1], по-умолчанию в кластерах <br>
используется реализация OpenMPI библиотеки MPI. Приложение dftbplus <br>
по-умолчанию пытается использовать реализацию MPICH библиотеки MPI. <br>
Поменять умолчание dftbplus можно так:<br>
<br>
FC=gfortran CC=gcc cmake -DWITH_OMP=N -DWITH_MPI=Y <br>
-DSCALAPACK_LIBRARY=scalapack-openmpi <br>
-DCMAKE_INSTALL_PREFIX=/mnt/pool/5/anikeev/dftbplus -B _build ../<br>
<br>
Если Вы хотите использовать MPICH, нужно подменить вызовы mpicc на <br>
mpicc.mpich, mpirun на mpirun.mpich и т.д. (подробнее в руководстве <br>
пользователя [1]).<br>
<br>
4) Обратите внимание, что для приложения заявлена поддержка GPU. Расчеты <br>
на GPU могут оказаться более эффективными.<br>
<br>
[1] <a href="https://ut.mephi.ru/pdf/projects/hpc/userguide.pdf" rel="noreferrer" target="_blank">https://ut.mephi.ru/pdf/projects/hpc/userguide.pdf</a><br>
<br>
> С уважением, Кулямин П.А.<br>
> <br>
> Аспирант 3 курса НИЯУ МИФИ<br>
> <br>
> Кафедра № 67 "Физика конденсированных<br>
> сред"<br>
> <br>
> Научный руководитель: Маслов М.М.<br>
> <br>
> Тел:8-905-582-00-63<br>
> _______________________________________________<br>
> hpc mailing list<br>
> <a href="mailto:hpc@lists.mephi.ru" target="_blank">hpc@lists.mephi.ru</a><br>
> <a href="https://lists.mephi.ru/listinfo/hpc" rel="noreferrer" target="_blank">https://lists.mephi.ru/listinfo/hpc</a><br>
<br>
--<br>
С уважением,<br>
ведущий инженер отдела UNIX-технологий НИЯУ МИФИ,<br>
к.ф.-м.н.,<br>
Аникеев Артем.<br>
e-mail: <a href="mailto:anikeev@ut.mephi.ru" target="_blank">anikeev@ut.mephi.ru</a><br>
тел.: 8 (495) 788-56-99, доб. 8998<br>
<br>
</blockquote></div>
</blockquote></div>