[mephi-hpc] Переустановка ПО

anikeev anikeev at ut.mephi.ru
Fri Sep 13 14:29:30 MSK 2019


On Fri, 2019-09-13 at 13:39 +0300, sms013 at campus.mephi.ru wrote:
> Здравствуйте. Файлы приложения установлены

Добрый день!

> /home/mshestopalova/gromacs-2019.3. Как установить на кластер? При

Напоминаю Вам, что согласно руководству пользователя директории /home
не предназначены для установки ПО или хранения данных. Они
предназначены только для конфигурационных файлов .bashrc
.ssh/authorized_keys и т.д. Там менее 200 GB на 400 пользователей.

Программное обеспечение и данные расчетов следует размещать в
хранилищах /mnt/pool/{1..4}/имя_пользователя. Пожалуйста, переместите
ПО на хранилища pool.

Программное обеспечение не нужно устанавливать на кластер. Хранилища
pool примонтированы на всех вычислительных узлах, никаких
дополнительных шагов не требуется. Достаточно корректно указать пути и
переменные окружения в стартовом скрипте задачи.

> запуске gromacs рассчёты запускаются только на одном компьютере.

Простите, не понял. Где можно посмотреть стартовый скрипт задачи?

> > Добрый день!
> > 
> > > Здравствуйте. Gromacs с оптимизированными параметрами собран в
> > > папке
> > > ~/pool/3/gromacs-2019.3/build (пользователь mshestopalova).
> > > Просьба
> > > удалить установленную на кластере cherenkov версию gromacs и
> > > установить
> > > данную оптимизированную командой sudo make install.
> > 
> > Я не могу установить данную сборку общесистемно, поскольку опции её
> > сборки могут отличаться от опций, требуемых другими пользователями.
> > 
> > Файлы приложения можно оставить в каталогах сборки или установить в
> > Ваш
> > каталог, определив при конфигурации perfix (cmake
> > -DCMAKE_INSTALL_PREFIX, configure --prefix).
> > 
> > Для использования индивидуальных сборок программного обеспечения по
> > умолчанию можно пользоваться переменной окружения PATH. Для
> > индивидуальных сборок библиотек есть переменные
> > LIBRARY_PATH, LD_LIBRARY_PATH, LD_PRELOAD. Эти переменные можно
> > переопределить в окружении пользователя при помощи индивидуального
> > файла .bashrc.
> > 
> > Более подробная информация есть здесь:
> > 
> > https://ru.wikipedia.org/wiki/PATH_(%D0%BF%D0%B5%D1%80%D0%B5%D0%BC%D0%B5%D0%BD%D0%BD%D0%B0%D1%8F)
> > https://wiki.archlinux.org/index.php/Environment_variables_(%D0%A0%D1%83%D1%81%D1%81%D0%BA%D0%B8%D0%B9)
> > https://gcc.gnu.org/onlinedocs/gcc/Environment-Variables.html
> > 
> > 
> > > С уважением,
> > > Шестопалова Милена
> > 
> > --
> > С уважением,
> > инженер отдела Unix-технологий МИФИ,
> > Аникеев Артём.
> > Тел.: 8
> > (495) 788-56-99, доб. 8998
> > 
> > > > On Wed, 2019-09-11 at 13:41 +0300, sms013 at campus.mephi.ru
> > > > wrote:
> > > > 
> > > > Добрый день!
> > > > 
> > > > > Здравствуйте. При запуске gromacs на кластере Черенков
> > > > > используя
> > > > > /usr/bin/mdrun_mpi.openmpi выводится сообщение (на
> > > > > скриншоте),
> > > > > которое
> > > > > указывает на то, что gromacs был скомпилирован используя не
> > > > > оптимальный
> > > > > набор инструкций, что ведет к огромной потере
> > > > > производительности
> > > > > (более
> > > > > чем в 16 раз). Нельзя ли  переустановить gromacs используя
> > > > > опции
> > > > > cmake
> > > > > -DGMX_SIMD=AVX2_256 и -GMX_USE_RDTSCP=ON
> > > > 
> > > > Вы правы. Системно на кластере устанавливаются пакеты из
> > > > дистрибутива
> > > > debian в оригинальном виде. Ресурсоёмкие алгоритмы должны
> > > > собираться из
> > > > исходного кода под конкретную микроархитекутру процессора с
> > > > опциями
> > > > для
> > > > конкретной задачи. Сборка из исходного кода и оптимизация под
> > > > задачу -
> > > > это работа пользователя. Работа системных администраторов
> > > > заключается в
> > > > поддержании вычислительной инфраструктуры и ответах на вопросы
> > > > пользователей при возникновении вопросов по сборке и
> > > > оптимизации.
> > > > 
> > > > Пример конфликтов опций пользователей для различных расчетов:
> > > > при
> > > > сборке под точность double SIMD AVX2 FMA дает 16 FLOP на такт.
> > > > При
> > > > сборке с точностью single получается 32 FLOP на такт. Если
> > > > собрать
> > > > с
> > > > double, у половины пользователей будет только 50%
> > > > производительности.
> > > > Если собрать с single, у другой половины будут некорректные
> > > > результаты.
> > > > Поддерживать специализированный дистрибутив под задачи каждого
> > > > из
> > > > почти
> > > > 400 пользователей и обеспечивать визуализацию для разрешения
> > > > конфликтов
> > > > по библиотекам невозможно.
> > > > 
> > > > Обращайтесь при возникновении вопросов по сборке и оптимизации.
> > > > 
> > > > --
> > > > С уважением,
> > > > инженер отдела Unix-технологий МИФИ,
> > > > Аникеев Артём.
> > > > Тел.: 8
> > > > (495) 788-56-99, доб. 8998
> > > > 
> > > 
> > > _______________________________________________
> > **********************************
> 
> _______________________________________________
> hpc mailing list
> hpc at lists.mephi.ru
> https://lists.mephi.ru/listinfo/hpc
-- 
С уважением,
инженер отдела Unix-технологий МИФИ,
Аникеев Артём.
Тел.: 8
(495) 788-56-99, доб. 8998


More information about the hpc mailing list