[mephi-hpc] Ремонт unicluster

anikeev anikeev at ut.mephi.ru
Fri Apr 16 16:01:34 MSK 2021


On Tue, 2021-03-16 at 14:51 +0300, anikeev wrote:
Уважаемые пользователи!

Кластер uniclsuter обновлен и возвращен в эксплуатацию. Параметры
обновленного кластера:

- 248 ядер CPU 3.0 GHz SSE4.1 без Hyper-Threading;
- 992 GB RAM;
- пиковая производительность 3 TFLOPS64.

Обратите внимание на следующие изменения:

- количество вычислительных узлов кластера увеличено вдвое;
- пропускная способность сетевого канала до систем хранения данных
увеличена в 10 раз (2x 8x 1 GbE IEEE 802.3ad LACP, 10 GbE uplink);
- узел n1 зарезервирован для коротких (до 1 часа) задач (задачу нужно
запустить так: sbatch -p fast ...);
- сетевое соединение между узлами кластера (1 GbE) все ещё ограничивает
использование MPI задач.

Если Ваше программное обеспечение не поддерживает векторизацию (SIMD),
настоятельно рекомендуется использовать unicluster.

Unicluster рекомендуется использовать для последовательных или
параллельных в пределах одного узла задач без ограничений на
интенсивность работы с системами хранения данных.

Unicluster ограниченно подходит для параллельных задач MPI с
использованием небольшого числа узлов и низкой интенсивностью передачи
данных.

Внимание!

2021-04-27 кластер basov закрывается на обновление программного
обеспечения. Ориентировочный срок проведения работ составляет 3-4
недели.

> Уважаемые пользователи!
> 
> Кластер unicluster будет выведен из эксплуатации для проведения
> технического обслуживания и обновления программного обеспечения в
> понедельник, 2021-03-22. Ориентировочных срок проведения работ
> составляет 3-4 недели.
> 
> Будьте внимательны! Кластер uniclsuter (IP 85.143.112.111) перестанет
> работать в качестве логин-узла. Не забудьте перенести ключи ssh на
> новый логин-узел hpc (IP 85.143.112.121).
> 
> Доменное имя hpc.mephi.ru будет переключено с uniclsuter на hpc в
> четверг, 2021-03-18.
> 
-- 
С уважением,
инженер отдела Unix-технологий МИФИ,
Аникеев Артём.
Тел.: 8
(495) 788-56-99, доб. 8998


More information about the hpc mailing list