[mephi-hpc] конфигурация SLURM

anikeev anikeev at ut.mephi.ru
Mon Sep 27 13:16:29 MSK 2021


On Mon, 2021-09-27 at 07:53 +0000, Богданов Алексей Георгиевич wrote:
> Здравствуйте!

Здравствуйте!
 
> А не подскажете, недавно (неделя или две назад) как-то изменилась
> конфигурация SLURM?
> Дело в том, что теперь запуск простенькой задачи, которая использует
> одно ядро CPU, типа:
>  
> sbatch myjob.sh, 
>  
> где myjob.sh что-то вроде:
>  
> #!/bin/bash
> #
> #SBATCH --time=03-00:00:00
> /mnt/pool/5/useraname/myprogramm my args,
>  
> приводит к тому, что она занимает целый узел (на кластерах
> Unicluster, Cherenkov, Basov),
> т.е. следующая (аналогичная) запускается уже на другом узле -
> наверное, так не должно быть.
> Примерно пару недель назад такие же задачки считались нормально -
> каждая на своем ядре.

Прошу прощения, побочный эффект от перевода лимитирования памяти задачи
на новую модель:

/etc/slurm/slurm.conf:
ProctrackType=proctrack/cgroup
TaskPlugin=task/cgroup,task/affinity
DefMemPerCPU=7500
SelectType=select/cons_tres
SelectTypeParameters=CR_Core_Memory

/etc/slurm/cgroup.conf:
CgroupAutomount=yes
CgroupMountpoint=/sys/fs/cgroup
ConstrainCores=yes
ConstrainKmemSpace=no        #avoid known Kernel issues
ConstrainRAMSpace=yes
TaskAffinity=no              #use task/affinity plugin instead

Исправлено. Работа лимитов памяти (PBS --mem) улучшена.

Прошу прощения за доставленные неудобства.

> С уважением, 
> Алексей Богданов
> _______________________________________________
> hpc mailing list
> hpc at lists.mephi.ru
> https://lists.mephi.ru/listinfo/hpc

-- 
С уважением,
инженер отдела Unix-технологий МИФИ,
Аникеев Артём.
Тел.: 8 (495) 788-56-99, доб. 8998



More information about the hpc mailing list