[mephi-hpc] конфигурация SLURM
anikeev
anikeev at ut.mephi.ru
Mon Sep 27 13:16:29 MSK 2021
On Mon, 2021-09-27 at 07:53 +0000, Богданов Алексей Георгиевич wrote:
> Здравствуйте!
Здравствуйте!
> А не подскажете, недавно (неделя или две назад) как-то изменилась
> конфигурация SLURM?
> Дело в том, что теперь запуск простенькой задачи, которая использует
> одно ядро CPU, типа:
>
> sbatch myjob.sh,
>
> где myjob.sh что-то вроде:
>
> #!/bin/bash
> #
> #SBATCH --time=03-00:00:00
> /mnt/pool/5/useraname/myprogramm my args,
>
> приводит к тому, что она занимает целый узел (на кластерах
> Unicluster, Cherenkov, Basov),
> т.е. следующая (аналогичная) запускается уже на другом узле -
> наверное, так не должно быть.
> Примерно пару недель назад такие же задачки считались нормально -
> каждая на своем ядре.
Прошу прощения, побочный эффект от перевода лимитирования памяти задачи
на новую модель:
/etc/slurm/slurm.conf:
ProctrackType=proctrack/cgroup
TaskPlugin=task/cgroup,task/affinity
DefMemPerCPU=7500
SelectType=select/cons_tres
SelectTypeParameters=CR_Core_Memory
/etc/slurm/cgroup.conf:
CgroupAutomount=yes
CgroupMountpoint=/sys/fs/cgroup
ConstrainCores=yes
ConstrainKmemSpace=no #avoid known Kernel issues
ConstrainRAMSpace=yes
TaskAffinity=no #use task/affinity plugin instead
Исправлено. Работа лимитов памяти (PBS --mem) улучшена.
Прошу прощения за доставленные неудобства.
> С уважением,
> Алексей Богданов
> _______________________________________________
> hpc mailing list
> hpc at lists.mephi.ru
> https://lists.mephi.ru/listinfo/hpc
--
С уважением,
инженер отдела Unix-технологий МИФИ,
Аникеев Артём.
Тел.: 8 (495) 788-56-99, доб. 8998
More information about the hpc
mailing list