[mephi-hpc] [!!Mass Mail]Re: Disk quota

anikeev anikeev at ut.mephi.ru
Mon Apr 20 14:55:04 MSK 2015


On Thu, 2015-04-16 at 19:25 +0300, Кумпан Александр wrote:
> Добрый вечер!
> 
>   1.  Мне наконец-то удалось отследить источник проблемы с такой
> ошибкой. Дело в том, что vi по умолчанию при открытии документа
> создает swap-файл, который, в случае чего-то непредвиденного, может
> быть использован для восстановления изменений. Но если места на диске
> нет, он не может ничего создать и честно об этом пишет.
>     Воспроизведение ошибки возможно при:
> 
> $ date
> Thu Apr 16 19:14:02 MSK 2015
> $ df -h
> Filesystem           Size  Used Avail Use% Mounted on
> /dev/root             40G   25G   15G  64% /
> devtmpfs              63G     0   63G   0% /dev
> tmpfs                 13G  864K   13G   1% /run
> cgroup_root           10M     0   10M   0% /sys/fs/cgroup
> shm                   51G     0   51G   0% /dev/shm
> /dev/sda2            236G  236G     0 100% /home
> /dev/sdb             7.3T  5.1T  1.8T  74% /mnt/storage
> 192.168.101.1:/home   74G   70G  3.5G  96% /mnt/unicluster/home
> $ date
> Thu Apr 16 19:14:04 MSK 2015
> 
>    Далее, через достаточно короткий промежуток времени, диск
> освобождается:
> 
> $ df -h
> Filesystem           Size  Used Avail Use% Mounted on
> /dev/root             40G   25G   15G  64% /
> devtmpfs              63G     0   63G   0% /dev
> tmpfs                 13G  864K   13G   1% /run
> cgroup_root           10M     0   10M   0% /sys/fs/cgroup
> shm                   51G     0   51G   0% /dev/shm
> /dev/sda2            236G  236G   56K 100% /home
> /dev/sdb             7.3T  5.1T  1.8T  74% /mnt/storage
> 192.168.101.1:/home   74G   70G  3.5G  96% /mnt/unicluster/home
> $ date
> Thu Apr 16 19:16:32 MSK 2015
> 
> И я снова могу редактировать файлы. Но затем:
> 
> $ df -h
> Filesystem           Size  Used Avail Use% Mounted on
> /dev/root             40G   25G   15G  64% /
> devtmpfs              63G     0   63G   0% /dev
> tmpfs                 13G  864K   13G   1% /run
> cgroup_root           10M     0   10M   0% /sys/fs/cgroup
> shm                   51G     0   51G   0% /dev/shm
> /dev/sda2            236G  236G     0 100% /home
> /dev/sdb             7.3T  5.1T  1.8T  74% /mnt/storage
> 192.168.101.1:/home   74G   70G  3.5G  96% /mnt/unicluster/home
> $ date
> Thu Apr 16 19:16:35 MSK 2015
> $ 
> 
>     Еще через короткий промежуток времени все исправляется:
> 
> $ date
> Thu Apr 16 19:18:54 MSK 2015
> $ df -h
> Filesystem           Size  Used Avail Use% Mounted on
> /dev/root             40G   25G   15G  64% /
> devtmpfs              63G     0   63G   0% /dev
> tmpfs                 13G  864K   13G   1% /run
> cgroup_root           10M     0   10M   0% /sys/fs/cgroup
> shm                   51G     0   51G   0% /dev/shm
> /dev/sda2            236G  236G   79M 100% /home
> /dev/sdb             7.3T  5.1T  1.8T  74% /mnt/storage
> 192.168.101.1:/home   74G   70G  3.5G  96% /mnt/unicluster/home
> $ date
> Thu Apr 16 19:18:57 MSK 2015
> 
>     Поэтому ошибка получается плавающей, и ее бывает очень трудно
> воспроизвести.
> 
>     Можно ли сделать так, чтобы, даже в случае практически полного
> заполнения диска каким-либо процессом(ами), оставался какой-то
> минимальный объем, который позволил бы интерактивное редактирование
> небольших файлов?
> 
>   2. Дополнительно:
>     Пусть, условно, на кластере занято 100 ядер из 300. Насколько
> жестко действуют квоты по ядрам? Иными словами, сколько ядер кластер
> может выделить пользователю в этом случае? Оборвет ли он, например,
> попытку занять 50 ядер из свободных 200?
> 
>   3. И еще такой момент.
>     В руководстве пользователя написано: 
> "В силу ограниченности ресурсов, дисковое пространство для каждого
> пользователя в $HOME ограничено размером 2 GB и количеством файлов 100
> 000. Ограничения можно кратковременно превышать в определённых
> пределах, однако, при длительном превышении (7 дней и более)
> пользователь будет автоматически заблокирован"
> 
> 
>     Можно уточнить, в каких пределах можно кратковременно превышать
> ограничения по дисковой квоте, чтобы это не противоречило правилам
> работы на кластере?
> 
> On 04/13/2015 06:22 PM, anikeev wrote: 
> > > On Mon, 2015-04-13 at 16:21 +0300, Кумпан Александр wrote:
> > > > Прошу прощения, забыл указать: ферма Basov
> > > > 
> > > > On 04/13/2015 04:20 PM, Кумпан Александр wrote:
> > > > 
> > > > > Уважаемая Администрация!
> > > > > 
> > > > >      Не могли бы вы помочь мне разобраться с квотами?
> > > > > 
> > > > >      Проблема возникает при работе с vi:
> > > > > 
> > > > >       1.  Запуск vi на открытие файла:
> > > > >          
> > > > >          $ vi /home/akumpan/RED100_git/runE_Bgr_DetVess_U.mac
> > > > >          E297: write error in a swap file
> > > > >          
> > > > >       2. Попытка сохранения с любым изменением, например, поставив
> > > > >          комментарий:
> > > > >          
> > > > >          "runE_Bgr_DetVess_U.mac" E514: write error (file system
> > > > >          full?)
> > > > >          Press ENTER or type command to continue
> > > > >          
> > > > >       3. В то же время, quota -s выдает:
> > > > >          $ quota -s
> > > > >          Disk quotas for user akumpan (uid 1046):
> > > > >               Filesystem   space   quota   limit   grace   files
> > > > >          quota   limit   grace
> > > > >                /dev/root     20K   1954M   7813M              18
> > > > >          100k    500k
> > > > >                /dev/sda2  80920K   1954M   9766M            1823
> > > > >          100k    200k
> > > > >          192.168.101.1:/home
> > > > >                            1163M   1954M   9766M           47053
> > > > >          100k    200k
> > > > > 
> > > > >      Если я правильно понял, то я "уперся" в одну из квот. Не могли
> > > > > бы вы помочь разобраться, в какую именно?
> > > > >        user: akumpan
> > > > > 
> > > > > 
> > > > > _______________________________________________
> > > > > hpc mailing list
> > > > > hpc at lists.ut.mephi.ru
> > > > > http://lists.ut.mephi.ru/listinfo/hpc

Добрый день!

Извините за задержку с ответом, было много неотложной работы.

1. Причина проблемы ясна, будем регулировать квоты.

2. Правила лимитирования зависят от продолжительности задачи. В общем
случае одному пользователю отдается не более половины кластера. Если
текущие правила вызывают проблемы, их можно обсуждать.

3. Допустимо трёхкратное превышение на 7 дней. Ввиду увеличения числа
пользователей лимиты будут изменены в ближайшее время. Проблему с
нарушением квот мы увидели, будет проводиться соответствующая
административная работа. Обращаю Ваше внимание, что директория ~/pool
занята очень слабо и подходит для работы с MPI.
-------------- next part --------------
A non-text attachment was scrubbed...
Name: signature.asc
Type: application/pgp-signature
Size: 819 bytes
Desc: This is a digitally signed message part
URL: <http://lists.ut.mephi.ru/pipermail/hpc/attachments/20150420/c9cf7cda/attachment.sig>


More information about the hpc mailing list