[mephi-hpc] [!!Mass Mail]Re: Disk quota
anikeev
anikeev at ut.mephi.ru
Mon Apr 20 14:55:04 MSK 2015
On Thu, 2015-04-16 at 19:25 +0300, Кумпан Александр wrote:
> Добрый вечер!
>
> 1. Мне наконец-то удалось отследить источник проблемы с такой
> ошибкой. Дело в том, что vi по умолчанию при открытии документа
> создает swap-файл, который, в случае чего-то непредвиденного, может
> быть использован для восстановления изменений. Но если места на диске
> нет, он не может ничего создать и честно об этом пишет.
> Воспроизведение ошибки возможно при:
>
> $ date
> Thu Apr 16 19:14:02 MSK 2015
> $ df -h
> Filesystem Size Used Avail Use% Mounted on
> /dev/root 40G 25G 15G 64% /
> devtmpfs 63G 0 63G 0% /dev
> tmpfs 13G 864K 13G 1% /run
> cgroup_root 10M 0 10M 0% /sys/fs/cgroup
> shm 51G 0 51G 0% /dev/shm
> /dev/sda2 236G 236G 0 100% /home
> /dev/sdb 7.3T 5.1T 1.8T 74% /mnt/storage
> 192.168.101.1:/home 74G 70G 3.5G 96% /mnt/unicluster/home
> $ date
> Thu Apr 16 19:14:04 MSK 2015
>
> Далее, через достаточно короткий промежуток времени, диск
> освобождается:
>
> $ df -h
> Filesystem Size Used Avail Use% Mounted on
> /dev/root 40G 25G 15G 64% /
> devtmpfs 63G 0 63G 0% /dev
> tmpfs 13G 864K 13G 1% /run
> cgroup_root 10M 0 10M 0% /sys/fs/cgroup
> shm 51G 0 51G 0% /dev/shm
> /dev/sda2 236G 236G 56K 100% /home
> /dev/sdb 7.3T 5.1T 1.8T 74% /mnt/storage
> 192.168.101.1:/home 74G 70G 3.5G 96% /mnt/unicluster/home
> $ date
> Thu Apr 16 19:16:32 MSK 2015
>
> И я снова могу редактировать файлы. Но затем:
>
> $ df -h
> Filesystem Size Used Avail Use% Mounted on
> /dev/root 40G 25G 15G 64% /
> devtmpfs 63G 0 63G 0% /dev
> tmpfs 13G 864K 13G 1% /run
> cgroup_root 10M 0 10M 0% /sys/fs/cgroup
> shm 51G 0 51G 0% /dev/shm
> /dev/sda2 236G 236G 0 100% /home
> /dev/sdb 7.3T 5.1T 1.8T 74% /mnt/storage
> 192.168.101.1:/home 74G 70G 3.5G 96% /mnt/unicluster/home
> $ date
> Thu Apr 16 19:16:35 MSK 2015
> $
>
> Еще через короткий промежуток времени все исправляется:
>
> $ date
> Thu Apr 16 19:18:54 MSK 2015
> $ df -h
> Filesystem Size Used Avail Use% Mounted on
> /dev/root 40G 25G 15G 64% /
> devtmpfs 63G 0 63G 0% /dev
> tmpfs 13G 864K 13G 1% /run
> cgroup_root 10M 0 10M 0% /sys/fs/cgroup
> shm 51G 0 51G 0% /dev/shm
> /dev/sda2 236G 236G 79M 100% /home
> /dev/sdb 7.3T 5.1T 1.8T 74% /mnt/storage
> 192.168.101.1:/home 74G 70G 3.5G 96% /mnt/unicluster/home
> $ date
> Thu Apr 16 19:18:57 MSK 2015
>
> Поэтому ошибка получается плавающей, и ее бывает очень трудно
> воспроизвести.
>
> Можно ли сделать так, чтобы, даже в случае практически полного
> заполнения диска каким-либо процессом(ами), оставался какой-то
> минимальный объем, который позволил бы интерактивное редактирование
> небольших файлов?
>
> 2. Дополнительно:
> Пусть, условно, на кластере занято 100 ядер из 300. Насколько
> жестко действуют квоты по ядрам? Иными словами, сколько ядер кластер
> может выделить пользователю в этом случае? Оборвет ли он, например,
> попытку занять 50 ядер из свободных 200?
>
> 3. И еще такой момент.
> В руководстве пользователя написано:
> "В силу ограниченности ресурсов, дисковое пространство для каждого
> пользователя в $HOME ограничено размером 2 GB и количеством файлов 100
> 000. Ограничения можно кратковременно превышать в определённых
> пределах, однако, при длительном превышении (7 дней и более)
> пользователь будет автоматически заблокирован"
>
>
> Можно уточнить, в каких пределах можно кратковременно превышать
> ограничения по дисковой квоте, чтобы это не противоречило правилам
> работы на кластере?
>
> On 04/13/2015 06:22 PM, anikeev wrote:
> > > On Mon, 2015-04-13 at 16:21 +0300, Кумпан Александр wrote:
> > > > Прошу прощения, забыл указать: ферма Basov
> > > >
> > > > On 04/13/2015 04:20 PM, Кумпан Александр wrote:
> > > >
> > > > > Уважаемая Администрация!
> > > > >
> > > > > Не могли бы вы помочь мне разобраться с квотами?
> > > > >
> > > > > Проблема возникает при работе с vi:
> > > > >
> > > > > 1. Запуск vi на открытие файла:
> > > > >
> > > > > $ vi /home/akumpan/RED100_git/runE_Bgr_DetVess_U.mac
> > > > > E297: write error in a swap file
> > > > >
> > > > > 2. Попытка сохранения с любым изменением, например, поставив
> > > > > комментарий:
> > > > >
> > > > > "runE_Bgr_DetVess_U.mac" E514: write error (file system
> > > > > full?)
> > > > > Press ENTER or type command to continue
> > > > >
> > > > > 3. В то же время, quota -s выдает:
> > > > > $ quota -s
> > > > > Disk quotas for user akumpan (uid 1046):
> > > > > Filesystem space quota limit grace files
> > > > > quota limit grace
> > > > > /dev/root 20K 1954M 7813M 18
> > > > > 100k 500k
> > > > > /dev/sda2 80920K 1954M 9766M 1823
> > > > > 100k 200k
> > > > > 192.168.101.1:/home
> > > > > 1163M 1954M 9766M 47053
> > > > > 100k 200k
> > > > >
> > > > > Если я правильно понял, то я "уперся" в одну из квот. Не могли
> > > > > бы вы помочь разобраться, в какую именно?
> > > > > user: akumpan
> > > > >
> > > > >
> > > > > _______________________________________________
> > > > > hpc mailing list
> > > > > hpc at lists.ut.mephi.ru
> > > > > http://lists.ut.mephi.ru/listinfo/hpc
Добрый день!
Извините за задержку с ответом, было много неотложной работы.
1. Причина проблемы ясна, будем регулировать квоты.
2. Правила лимитирования зависят от продолжительности задачи. В общем
случае одному пользователю отдается не более половины кластера. Если
текущие правила вызывают проблемы, их можно обсуждать.
3. Допустимо трёхкратное превышение на 7 дней. Ввиду увеличения числа
пользователей лимиты будут изменены в ближайшее время. Проблему с
нарушением квот мы увидели, будет проводиться соответствующая
административная работа. Обращаю Ваше внимание, что директория ~/pool
занята очень слабо и подходит для работы с MPI.
-------------- next part --------------
A non-text attachment was scrubbed...
Name: signature.asc
Type: application/pgp-signature
Size: 819 bytes
Desc: This is a digitally signed message part
URL: <http://lists.ut.mephi.ru/pipermail/hpc/attachments/20150420/c9cf7cda/attachment.sig>
More information about the hpc
mailing list