[mephi-hpc] LAMMPS Intel MPI Tensor
Жариков Евгений Сергеевич
ESZharikov at mephi.ru
Mon Sep 13 16:04:38 MSK 2021
Владимир Васильевич, здравствуйте!
Большое спасибо, работает!
> 13 сент. 2021 г., в 14:57, Углов Владимир Васильевич <VVUglov at mephi.ru> написал(а):
>
> Здравствуйте!
>
> Попробуйте запустить sh скрипт с:
> export I_MPI_PMI_LIBRARY=/usr/lib/x86_64-linux-gnu/libpmi.so
> source /opt/intel/oneapi/setvars.sh
> srun --mpi=pmi2 Программа -in ВходнойСкрипт
>
> Причина: mpirun с Intel MPI может некорректно распределять потоки между выделенными узлами, рекомендуется использовать srun со соответствующим флагом --mpi=pmi2, а также делать экспорт libmpi библиотеки.
>
>
>
> С уважением, Игорь Сафронов, Владимир В Углов
> _______________________________________
> От: hpc <hpc-bounces at lists.mephi.ru> от имени hpc-request at lists.mephi.ru <hpc-request at lists.mephi.ru>
> Отправлено: 13 сентября 2021 г. 12:00
> Кому: hpc at lists.mephi.ru
> Тема: hpc Digest, Vol 87, Issue 7
>
> Send hpc mailing list submissions to
> hpc at lists.mephi.ru
>
> To subscribe or unsubscribe via the World Wide Web, visit
> https://lists.mephi.ru/listinfo/hpc
> or, via email, send a message with subject or body 'help' to
> hpc-request at lists.mephi.ru
>
> You can reach the person managing the list at
> hpc-owner at lists.mephi.ru
>
> When replying, please edit your Subject line so it is more specific
> than "Re: Contents of hpc digest..."
>
>
> Today's Topics:
>
> 1. LAMMPS Intel MPI Tensor
> (Жариков Евгений Сергеевич)
>
>
> ----------------------------------------------------------------------
>
> Message: 1
> Date: Mon, 13 Sep 2021 08:40:25 +0000
> From: Жариков Евгений Сергеевич
> <ESZharikov at mephi.ru>
> To: "hpc at lists.ut.mephi.ru" <hpc at lists.ut.mephi.ru>
> Subject: [mephi-hpc] LAMMPS Intel MPI Tensor
> Message-ID: <CBDF8F0B-9D49-445B-9839-033755C71537 at mephi.ru>
> Content-Type: text/plain; charset="utf-8"
>
> Добрый день!
>
> Возникла небольшая проблема с LAMMPS после недавнего обновления на кластере Tensor.
>
> Потоки при выполнении расчетов LAMMPS, собранном с помощью Intel one API и Intel MPI, версия от 30Jul202, стали некорректно распределяться по ядрам, скорее всего выполнение идет только на одном ядре.
>
> Пока проблема выявилась только на LAMMPS, пересборка LAMMPS не помогла.
>
> LAMMPS, собранный при помощи GCC и OpenMPI, работает корректно.
>
> В чем может быть проблема? Спасибо!
>
>
> С уважением,
> Евгений Жариков
>
> -------------- next part --------------
> An HTML attachment was scrubbed...
> URL: <http://lists.mephi.ru/pipermail/hpc/attachments/20210913/10b50172/attachment-0001.html>
>
> ------------------------------
>
> Subject: Digest Footer
>
> _______________________________________________
> hpc mailing list
> hpc at lists.mephi.ru
> https://lists.mephi.ru/listinfo/hpc
>
>
> ------------------------------
>
> End of hpc Digest, Vol 87, Issue 7
> **********************************
> _______________________________________________
> hpc mailing list
> hpc at lists.mephi.ru
> https://lists.mephi.ru/listinfo/hpc
More information about the hpc
mailing list