[mephi-hpc] сборка QE-gpu на кластере basis
anikeev
anikeev at ut.mephi.ru
Wed Jul 28 17:17:54 MSK 2021
On Wed, 2021-07-28 at 16:40 +0300, anikeev wrote:
> On Wed, 2021-07-28 at 14:57 +0300, konstantin grishakov wrote:
> > Здравствуйте!
>
> Здравствуйте!
>
> > Не получается скомпилировать QE-6.8 (версию 6.7 тоже не
> > получается) на кластере basis с использованием GPU. Все делаю по
> > следующей схеме, предложенной в одном из предыдущих сообщений:
> > P.S. GPU-enabled Quantum Espresso 6.7 успешно конфигурируется
> > при
> > помощи:
> > source /opt/intel/parallel_studio_xe_2020/psxevars.sh
> > source /opt/nvidia/hpc_sdk/nvvars.sh
> > source /opt/nvidia/hpc_sdk/nv_mpi_vars.sh
> > ./configure --with-cuda=/opt/nvidia/hpc_sdk/ --with-cuda-
> > runtime=11.3 --with-cuda-cc=80 --enable-openmp --with-scalapack=no
> > make
> >
> > На этапе ./configure выдается ошибка:
> > configure: error: You do not have the cudafor module. Are you
> > using a PGI compiler?
> >
> > Не могли бы вы подсказать: в чем проблема и что нужно делать?
>
> Не делайте source /opt/intel/parallel_studio_xe_2020/psxevars.sh при
> сборке, но делайте при запуске (и обязательно до source
> /opt/nvidia/hpc_sdk/nvvars.sh и source
> /opt/nvidia/hpc_sdk/nv_mpi_vars.sh). Конфигуратор QE немного со
> странностями.
>
> OpenMP лучше выключить, без него на бенчмарках быстрее. Во всяком
> случае, попробуйте без него.
>
> > --
> > konstantin grishakov
> > _______________________________________________
> > hpc mailing list
> > hpc at lists.mephi.ru
> > https://lists.mephi.ru/listinfo/hpc
>
P.S.
Пример рабочего скрипта за пуска QE:
#SBATCH --nodes=1
#SBATCH --gres=gpu:1
#SBATCH --ntasks=1
source /opt/intel/parallel_studio_xe_2020/psxevars.sh
source /opt/nvidia/hpc_sdk/nvvars.sh
source /opt/nvidia/hpc_sdk/nv_mpi_vars.sh
mpirun --mca btl self,smcuda /mnt/pool/5/anikeev/basis/q-e-gpu-qe-gpu-
6.7/bin/pw.x < pw.in > output
Общие замечания:
- Лучше использовать минимум ускорителей в отдельно взятой задаче. Если
хватает памяти одного ускорителя - лучше использовать один ускоритель
на задачу;
- Лучше использовать один MPI поток на ускоритель, особенно, если
используются 2 и более ускорителей;
- При использовании --mca btl self,smcuda и перенастроенном
nvidia_persistenced разницы между видеокартами нет.
Результаты бенчмарков в приложении.
--
С уважением,
инженер отдела Unix-технологий МИФИ,
Аникеев Артём.
Тел.: 8 (495) 788-56-99, доб. 8998
-------------- next part --------------
A non-text attachment was scrubbed...
Name: qe_A100_bench.pdf
Type: application/pdf
Size: 14237 bytes
Desc: not available
URL: <http://lists.mephi.ru/pipermail/hpc/attachments/20210728/c8c44122/attachment-0001.pdf>
More information about the hpc
mailing list