[mephi-hpc] hpc Digest, Vol 83, Issue 2

anikeev anikeev at ut.mephi.ru
Wed Jun 30 15:15:53 MSK 2021


On Wed, 2021-06-30 at 11:50 +0000, Углов Владимир Васильевич wrote:
> Здравствуйте!

Здравствуйте!

> Возник вопрос по сборке Quantum ESPRESSO GPU c CUDA в системе
> "basis":
> 
> Чтобы подключить pg компиляторы, cuda с библиотеками и подходящую
> версию  mpi (MPI implementation that wraps PGI Fortran) нужно
> предварительно ввести команды
> source /opt/nvidia/hpc_sdk/nvvars.sh
> и
> source /opt/nvidia/hpc_sdk/nv_mpi_vars.sh?

Да, эти скрипты написал я. В оригинальном NVIDIA HPC SDK требуемые
операции над переменными окружения были описаны только на официальном
сайте в разделе руководства пользователя. Я предположил, что у
пользователей могут возникнуть проблемы и создал нештатные скрипты с
названиями в стиле SDK Intel.

> P.S. Это необходимо, чтобы далее проделать configure 
> ./configure CC=pgcc FC=pgf90 F90=pgf90 MPIF90=mpipgifort --enable-
> openmp --with-cuda=$CUDA_ROOT --with-cuda-runtime=11.3 --with-cuda-
> cc=80

-- 
С уважением,
инженер отдела Unix-технологий МИФИ,
Аникеев Артём.
Тел.: 8
(495) 788-56-99, доб. 8998

>  Спасибо!
> 
> С уважением, Владимир В Углов, Игорь Сафронов
> ________________________________________
> От: hpc <hpc-bounces at lists.mephi.ru> от имени 
> hpc-request at lists.mephi.ru <hpc-request at lists.mephi.ru>
> Отправлено: 12 мая 2021 г. 12:00
> Кому: hpc at lists.mephi.ru
> Тема: hpc Digest, Vol 83, Issue 2
> 
> Send hpc mailing list submissions to
>         hpc at lists.mephi.ru
> 
> To subscribe or unsubscribe via the World Wide Web, visit
>         https://lists.mephi.ru/listinfo/hpc
> or, via email, send a message with subject or body 'help' to
>         hpc-request at lists.mephi.ru
> 
> You can reach the person managing the list at
>         hpc-owner at lists.mephi.ru
> 
> When replying, please edit your Subject line so it is more specific
> than "Re: Contents of hpc digest..."
> 
> 
> Today's Topics:
> 
>    1. Re: Quantum ESPRESSO GPU with CUDA (qe-gpu cuda) (anikeev)
> 
> 
> -------------------------------------------------------------------
> ---
> 
> Message: 1
> Date: Tue, 11 May 2021 16:26:08 +0300
> From: anikeev <anikeev at ut.mephi.ru>
> To: NRNU MEPhI HPC discussion list <hpc at lists.mephi.ru>
> Subject: Re: [mephi-hpc] Quantum ESPRESSO GPU with CUDA (qe-gpu cuda)
> Message-ID:
>         <ef31bf06e3859631abc3338c4522a36445defec6.camel at ut.mephi.ru>
> Content-Type: text/plain; charset="UTF-8"
> 
> On Tue, 2021-05-04 at 12:55 +0000, Углов Владимир Васильевич wrote:
> > Здравствуйте!
> 
> Здравствуйте!
> 
> > В рассылке как-то поднималась тема насчет PGI компиляторов и был
> > дан
> > совет установить для своего пользователя NVIDIA HPC SDK.
> > 
> > Однако, возникли вопросы насчет сборки Quantum ESPRESSO c CUDA.
> > Например, для HPC-SDK + OpenMPI (MPI implementation that wraps PGI
> > Fortran) + CUDA:
> > 
> > ./configure CC=pgcc FC=pgf90 F90=pgf90 MPIF90=mpipgifort --enable-
> > openmp --with-cuda=/PATH/ --with-cuda-runtime=Y.y --with-cuda-cc=70
> > 
> > В руководстве пользователя указано, что на кластере установлено
> > NVIDIA CUDA Toolkit 9.2.148.
> > На сайте NVIDIA самая ранняя версия HPC SDK 20.7 (August 2020)
> > https://developer.nvidia.com/nvidia-hpc-sdk-releases, которая
> > поддерживает CUDA 10.1 и Minimum CUDA Driver 418.39
> > https://docs.nvidia.com/hpc-sdk/archive/20.7/hpc-sdk-release-notes/index.html
> > .
> > Т.е., получается, что перед установкой
> > https://docs.nvidia.com/hpc-sdk/archive/21.3/hpc-sdk-install-guide/index.html,например
> > , последней версии HPC SDK 21.3 (April 2021) необходимо удалить
> > предыдущую версию CUDA Toolkit c драйвером и затем установить
> > соответствующие новые CUDA Toolkit 11.3 (April 2021), но для этого
> > нужны права sudo
> > https://docs.nvidia.com/cuda/cuda-installation-guide-linux/index.html
> > .
> 
> На кластере стоит драйвер 418.152:
> 
> anikeev at tensor:~$ dpkg -l | grep -i nvidia-driver
> nvidia-driver    418.152.00-1    amd64
> 
> Таким образом, Вы можете поставить HPC SDK 20.7 без удаления
> системной
> версии с использованием proot (см. руководство пользователя, пп. 3.6)
> 
> https://ut.mephi.ru/pdf/projects/hpc/userguide.pdf
> 
> https://proot-me.github.io/
> 
> Обращайтесь при наличии вопросов.
> 
> > 1. Учитывая, что обновление планируется с выходом нового релиза
> > Debian в июне-июле, то пока нет возможности задействовать CUDA ядра
> > при сборке Quantum ESPRESSO GPU?
> 
> Возможность есть, с помощью proot, см. выше.
> 
> > 2. Второй вопрос связан с запросом ресурсов на GPU узле. Чтобы
> > задействовать больше CUDA ядер, то в bash скрипте мы занижаем --
> > ntasks, например, до 2, а --cpus-per-task до 1 с тем, чтобы
> > поставить
> > 24 задачи (т.е. полностью загрузить GPU узел задействовав 48
> > графических ускорителя, учитывая, что --gres=gpu:2)?
> > 
> > В рекомендациях по выбору числа потоков CPU на каждый GPU для QE
> > приводится (наверно,
> > --cpus-per-task нужно указывать какое-то другое)
> 
> Простите, не понял формулировку вопроса. Для оптимального
> использования
> GPU обычно рекомендуется запускать много вычислительных потоков на
> один
> ускоритель, однако, в руководстве QE указано, что он не рассчитан на
> такое использование:
> 
> https://gitlab.com/QEF/q-e-gpu/-/wikis/home
> 
> As a rule, the code should run with one MPI per GPU. In some cases,
> if
> allowed by the node configuration, performance may be improved by
> running two processes per GPU device. The code will print a warning
> if
> more than two processes try to run on the same GPU as this is
> discouraged.
> 
> Попробуйте такие два скрипта (запрос времени опустил):
> 
> #!/bin/bash
> #SBATCH --partition=gpu
> #SBATCH --nodes=1
> #SBATCH --gres=gpu:2
> #SBATCH --ntasks=2
> #SBATCH --cpus-per-task=24
> #SBATCH --mem=0               # Request the full memory of the node
> export OMP_NUM_THREADS=$SLURM_CPUS_PER_TASK
> 
> #!/bin/bash
> #SBATCH --partition=gpu
> #SBATCH --nodes=1
> #SBATCH --gres=gpu:2
> #SBATCH --ntasks=4
> #SBATCH --cpus-per-task=12
> #SBATCH --mem=0               # Request the full memory of the node
> export OMP_NUM_THREADS=$SLURM_CPUS_PER_TASK
> 
> > Спасибо!
> > 
> > 
> > 
> > С уважением, Игорь Сафронов, Владимир Углов
> > _______________________________________________
> > hpc mailing list
> > hpc at lists.mephi.ru
> > https://lists.mephi.ru/listinfo/hpc
> --
> С уважением,
> инженер отдела Unix-технологий МИФИ,
> Аникеев Артём.
> Тел.: 8
> (495) 788-56-99, доб. 8998
> 
> ------------------------------
> 
> Subject: Digest Footer
> 
> _______________________________________________
> hpc mailing list
> hpc at lists.mephi.ru
> https://lists.mephi.ru/listinfo/hpc
> 
> 
> ------------------------------
> 
> End of hpc Digest, Vol 83, Issue 2
> **********************************
> _______________________________________________
> hpc mailing list
> hpc at lists.mephi.ru
> https://lists.mephi.ru/listinfo/hpc



More information about the hpc mailing list