[mephi-hpc] конфигурация SLURM
Богданов Алексей Георгиевич
AGBogdanov at mephi.ru
Mon Sep 27 13:24:39 MSK 2021
OK, спасибо!
-----Original Message-----
From: hpc [mailto:hpc-bounces at lists.mephi.ru] On Behalf Of anikeev
Sent: Monday, September 27, 2021 1:16 PM
To: NRNU MEPhI HPC discussion list <hpc at lists.mephi.ru>
Subject: Re: [mephi-hpc] конфигурация SLURM
On Mon, 2021-09-27 at 07:53 +0000, Богданов Алексей Георгиевич wrote:
> Здравствуйте!
Здравствуйте!
> А не подскажете, недавно (неделя или две назад) как-то изменилась
> конфигурация SLURM?
> Дело в том, что теперь запуск простенькой задачи, которая использует
> одно ядро CPU, типа:
>
> sbatch myjob.sh,
>
> где myjob.sh что-то вроде:
>
> #!/bin/bash
> #
> #SBATCH --time=03-00:00:00
> /mnt/pool/5/useraname/myprogramm my args,
>
> приводит к тому, что она занимает целый узел (на кластерах Unicluster,
> Cherenkov, Basov), т.е. следующая (аналогичная) запускается уже на
> другом узле - наверное, так не должно быть.
> Примерно пару недель назад такие же задачки считались нормально -
> каждая на своем ядре.
Прошу прощения, побочный эффект от перевода лимитирования памяти задачи на новую модель:
/etc/slurm/slurm.conf:
ProctrackType=proctrack/cgroup
TaskPlugin=task/cgroup,task/affinity
DefMemPerCPU=7500
SelectType=select/cons_tres
SelectTypeParameters=CR_Core_Memory
/etc/slurm/cgroup.conf:
CgroupAutomount=yes
CgroupMountpoint=/sys/fs/cgroup
ConstrainCores=yes
ConstrainKmemSpace=no #avoid known Kernel issues
ConstrainRAMSpace=yes
TaskAffinity=no #use task/affinity plugin instead
Исправлено. Работа лимитов памяти (PBS --mem) улучшена.
Прошу прощения за доставленные неудобства.
> С уважением,
> Алексей Богданов
> _______________________________________________
> hpc mailing list
> hpc at lists.mephi.ru
> https://lists.mephi.ru/listinfo/hpc
--
С уважением,
инженер отдела Unix-технологий МИФИ,
Аникеев Артём.
Тел.: 8 (495) 788-56-99, доб. 8998
_______________________________________________
hpc mailing list
hpc at lists.mephi.ru
https://lists.mephi.ru/listinfo/hpc
More information about the hpc
mailing list