[mephi-hpc] нет доступа на басов

anikeev anikeev at ut.mephi.ru
Tue Jul 14 14:55:25 MSK 2015


Здравствуйте ещё раз!

Я понял в чём была Ваша проблема. Я перечитал внимательно мануал и
нашёл, что ncpus можно использовать только в пределах одной ноды. Это
специально делалось для OpenMP, а не для MPI. Нашёл и решение, но оно
не очень красивое. Можно указывать абсолютно любые конфигурации если
указывать конкретные процессор через +

    nodes=n01:ppn=8+n02:ppn=3

Вот полный пример для unicluster:

    #!/bin/sh
    #
    #This is an example script example.sh
    #
    #These commands set up the Grid Environment for your job:
    #PBS -N ExampleJob
    #PBS -l nodes=n01:ppn=8+n02:ppn=3,walltime=05:00:00
    #PBS -M     anikeev_aa at mail.ru

    #print the time and date
    date

    #run simulation
    cd /home/anikeev/tests_immers/LAMMPS/
    mpiexec lmp < in.buck

    #print the time and date again
    date

И оно сработало:

    master.unicluster anikeev # showq
    ACTIVE JOBS--------------------
    JOBNAME            USERNAME      STATE  PROC   REMAINING           
     STARTTIME

    28917               anikeev    Running    11     5:00:00  Tue Jul
    14 14:47:18

         1 Active Job       11 of   96 Processors Active (11.46%)
                             2 of   12 Nodes Active      (16.67%)

    IDLE JOBS----------------------
    JOBNAME            USERNAME      STATE  PROC     WCLIMIT           
     QUEUETIME


    0 Idle Jobs

    BLOCKED JOBS----------------
    JOBNAME            USERNAME      STATE  PROC     WCLIMIT           
     QUEUETIME


    Total Jobs: 1   Active Jobs: 1   Idle Jobs: 0   Blocked Jobs: 0
    master.unicluster anikeev #

Конечно, это не очень удобно. Но можно написать скриптик.

С уважением,
Артём.
-------------- next part --------------
A non-text attachment was scrubbed...
Name: signature.asc
Type: application/pgp-signature
Size: 819 bytes
Desc: This is a digitally signed message part
URL: <http://lists.ut.mephi.ru/pipermail/hpc/attachments/20150714/48bc4ca9/attachment.sig>


More information about the hpc mailing list