[mephi-hpc] [!!Mass Mail]Re: Disk quota

Кумпан Александр avkumpan at mephi.ru
Mon Apr 20 15:33:18 MSK 2015


Добрый день!

     Спасибо за содействие и развернутое разъяснение!

On 04/20/2015 02:55 PM, anikeev wrote:
> On Thu, 2015-04-16 at 19:25 +0300, Кумпан Александр wrote:
>> Добрый вечер!
>>
>>    1.  Мне наконец-то удалось отследить источник проблемы с такой
>> ошибкой. Дело в том, что vi по умолчанию при открытии документа
>> создает swap-файл, который, в случае чего-то непредвиденного, может
>> быть использован для восстановления изменений. Но если места на диске
>> нет, он не может ничего создать и честно об этом пишет.
>>      Воспроизведение ошибки возможно при:
>>
>> $ date
>> Thu Apr 16 19:14:02 MSK 2015
>> $ df -h
>> Filesystem           Size  Used Avail Use% Mounted on
>> /dev/root             40G   25G   15G  64% /
>> devtmpfs              63G     0   63G   0% /dev
>> tmpfs                 13G  864K   13G   1% /run
>> cgroup_root           10M     0   10M   0% /sys/fs/cgroup
>> shm                   51G     0   51G   0% /dev/shm
>> /dev/sda2            236G  236G     0 100% /home
>> /dev/sdb             7.3T  5.1T  1.8T  74% /mnt/storage
>> 192.168.101.1:/home   74G   70G  3.5G  96% /mnt/unicluster/home
>> $ date
>> Thu Apr 16 19:14:04 MSK 2015
>>
>>     Далее, через достаточно короткий промежуток времени, диск
>> освобождается:
>>
>> $ df -h
>> Filesystem           Size  Used Avail Use% Mounted on
>> /dev/root             40G   25G   15G  64% /
>> devtmpfs              63G     0   63G   0% /dev
>> tmpfs                 13G  864K   13G   1% /run
>> cgroup_root           10M     0   10M   0% /sys/fs/cgroup
>> shm                   51G     0   51G   0% /dev/shm
>> /dev/sda2            236G  236G   56K 100% /home
>> /dev/sdb             7.3T  5.1T  1.8T  74% /mnt/storage
>> 192.168.101.1:/home   74G   70G  3.5G  96% /mnt/unicluster/home
>> $ date
>> Thu Apr 16 19:16:32 MSK 2015
>>
>> И я снова могу редактировать файлы. Но затем:
>>
>> $ df -h
>> Filesystem           Size  Used Avail Use% Mounted on
>> /dev/root             40G   25G   15G  64% /
>> devtmpfs              63G     0   63G   0% /dev
>> tmpfs                 13G  864K   13G   1% /run
>> cgroup_root           10M     0   10M   0% /sys/fs/cgroup
>> shm                   51G     0   51G   0% /dev/shm
>> /dev/sda2            236G  236G     0 100% /home
>> /dev/sdb             7.3T  5.1T  1.8T  74% /mnt/storage
>> 192.168.101.1:/home   74G   70G  3.5G  96% /mnt/unicluster/home
>> $ date
>> Thu Apr 16 19:16:35 MSK 2015
>> $
>>
>>      Еще через короткий промежуток времени все исправляется:
>>
>> $ date
>> Thu Apr 16 19:18:54 MSK 2015
>> $ df -h
>> Filesystem           Size  Used Avail Use% Mounted on
>> /dev/root             40G   25G   15G  64% /
>> devtmpfs              63G     0   63G   0% /dev
>> tmpfs                 13G  864K   13G   1% /run
>> cgroup_root           10M     0   10M   0% /sys/fs/cgroup
>> shm                   51G     0   51G   0% /dev/shm
>> /dev/sda2            236G  236G   79M 100% /home
>> /dev/sdb             7.3T  5.1T  1.8T  74% /mnt/storage
>> 192.168.101.1:/home   74G   70G  3.5G  96% /mnt/unicluster/home
>> $ date
>> Thu Apr 16 19:18:57 MSK 2015
>>
>>      Поэтому ошибка получается плавающей, и ее бывает очень трудно
>> воспроизвести.
>>
>>      Можно ли сделать так, чтобы, даже в случае практически полного
>> заполнения диска каким-либо процессом(ами), оставался какой-то
>> минимальный объем, который позволил бы интерактивное редактирование
>> небольших файлов?
>>
>>    2. Дополнительно:
>>      Пусть, условно, на кластере занято 100 ядер из 300. Насколько
>> жестко действуют квоты по ядрам? Иными словами, сколько ядер кластер
>> может выделить пользователю в этом случае? Оборвет ли он, например,
>> попытку занять 50 ядер из свободных 200?
>>
>>    3. И еще такой момент.
>>      В руководстве пользователя написано:
>> "В силу ограниченности ресурсов, дисковое пространство для каждого
>> пользователя в $HOME ограничено размером 2 GB и количеством файлов 100
>> 000. Ограничения можно кратковременно превышать в определённых
>> пределах, однако, при длительном превышении (7 дней и более)
>> пользователь будет автоматически заблокирован"
>>
>>
>>      Можно уточнить, в каких пределах можно кратковременно превышать
>> ограничения по дисковой квоте, чтобы это не противоречило правилам
>> работы на кластере?
>>
>> On 04/13/2015 06:22 PM, anikeev wrote:
>>>> On Mon, 2015-04-13 at 16:21 +0300, Кумпан Александр wrote:
>>>>> Прошу прощения, забыл указать: ферма Basov
>>>>>
>>>>> On 04/13/2015 04:20 PM, Кумпан Александр wrote:
>>>>>
>>>>>> Уважаемая Администрация!
>>>>>>
>>>>>>       Не могли бы вы помочь мне разобраться с квотами?
>>>>>>
>>>>>>       Проблема возникает при работе с vi:
>>>>>>
>>>>>>        1.  Запуск vi на открытие файла:
>>>>>>           
>>>>>>           $ vi /home/akumpan/RED100_git/runE_Bgr_DetVess_U.mac
>>>>>>           E297: write error in a swap file
>>>>>>           
>>>>>>        2. Попытка сохранения с любым изменением, например, поставив
>>>>>>           комментарий:
>>>>>>           
>>>>>>           "runE_Bgr_DetVess_U.mac" E514: write error (file system
>>>>>>           full?)
>>>>>>           Press ENTER or type command to continue
>>>>>>           
>>>>>>        3. В то же время, quota -s выдает:
>>>>>>           $ quota -s
>>>>>>           Disk quotas for user akumpan (uid 1046):
>>>>>>                Filesystem   space   quota   limit   grace   files
>>>>>>           quota   limit   grace
>>>>>>                 /dev/root     20K   1954M   7813M              18
>>>>>>           100k    500k
>>>>>>                 /dev/sda2  80920K   1954M   9766M            1823
>>>>>>           100k    200k
>>>>>>           192.168.101.1:/home
>>>>>>                             1163M   1954M   9766M           47053
>>>>>>           100k    200k
>>>>>>
>>>>>>       Если я правильно понял, то я "уперся" в одну из квот. Не могли
>>>>>> бы вы помочь разобраться, в какую именно?
>>>>>>         user: akumpan
>>>>>>
>>>>>>
>>>>>> _______________________________________________
>>>>>> hpc mailing list
>>>>>> hpc at lists.ut.mephi.ru
>>>>>> http://lists.ut.mephi.ru/listinfo/hpc
> Добрый день!
>
> Извините за задержку с ответом, было много неотложной работы.
>
> 1. Причина проблемы ясна, будем регулировать квоты.
>
> 2. Правила лимитирования зависят от продолжительности задачи. В общем
> случае одному пользователю отдается не более половины кластера. Если
> текущие правила вызывают проблемы, их можно обсуждать.
>
> 3. Допустимо трёхкратное превышение на 7 дней. Ввиду увеличения числа
> пользователей лимиты будут изменены в ближайшее время. Проблему с
> нарушением квот мы увидели, будет проводиться соответствующая
> административная работа. Обращаю Ваше внимание, что директория ~/pool
> занята очень слабо и подходит для работы с MPI.


-- 
С уважением,
Кумпан А.В.
Лаборатория 344




More information about the hpc mailing list