strutture:pi:computing_center:theocluster:job:sottomissione_dei_job
Differences
This shows you the differences between two versions of the page.
Both sides previous revisionPrevious revisionNext revision | Previous revision | ||
strutture:pi:computing_center:theocluster:job:sottomissione_dei_job [2013/12/23 14:13] – carusog@infn.it | strutture:pi:computing_center:theocluster:job:sottomissione_dei_job [2014/10/16 08:13] (current) – carusog@infn.it | ||
---|---|---|---|
Line 1: | Line 1: | ||
+ | ==== SOTTOMISSIONE - SUBMISSION ==== | ||
+ | ---- | ||
+ | |||
+ | La sottomissione di un job verrà fatta tramite tre code specifiche chiamate **parallel** , **longparallel** e **neparallel** e indirizzate su Zefiro dove i core sono stati raggruppati in bunch da 32core che corrispondono ai core fisici di due dei 4 processori di una macchina. Ogni bunch da 32core è considerato un jobslot. Quindi ogni nodo in questo caso ha 2 JOBSLOT. Le caratteristiche delle due code saranno nello specifico: | ||
+ | \\ | ||
+ | |||
+ | |||
+ | **parallel**: | ||
+ | |||
+ | // | ||
+ | //In questo caso il comando diventerebbe:// | ||
+ | < | ||
+ | |||
+ | **longparallel**: | ||
+ | |||
+ | |||
+ | **neparallel**: | ||
+ | \\ | ||
+ | |||
+ | Per la assegnazione di jobslot sullo stesso nodo di calcolo(nel caso di un numero di jobslot richiesti pari a 2), è necessario includere la seguente striga al comando di sottomissione del proprio job. | ||
+ | < | ||
+ | |||
+ | Nel caso di un numero di jobslot multipli di 2, per l' | ||
+ | < | ||
+ | |||
+ | __Solo per la coda neparallel, se si vuole estendere il walltime (di default è pari a 24h), fino ad un massimo di 1 settmana(10080 minuti), è necessario aggiungere il parametro -W 10080(massimo) al comando si sottomissione__ | ||
+ | |||
+ | \\ | ||
+ | [[strutture: | ||
+ | \\ | ||
+ | \\ | ||
+ | Se nel comando di sottomissione vengono inseriti anche le opzioni -e -o nella home directory dell' | ||
+ | |||
+ | __Se non viene inserito il nome di uno dei gruppi o Iniziative specifiche d' | ||
+ | \\ | ||
+ | |||
+ | |||
+ | __NOTA BENE__\\ | ||
+ | il percorso a mpirun.lsf è\\ | ||
+ | / | ||
+ | Gli altri eseguibili e compilatori mpi stanno in\\ | ||
+ | / | ||
+ | |||
+ | //I compilatori non sono presenti sulle User Interface ma soltanto sugli host del Cluster, per la compilazione quindi è necessario sottomettere tramite le apposite code predisposte (vedi Sez. 'DEBUG DEI JOBS' e ' | ||
+ | |||
+ | [[strutture: | ||
+ | ---- | ||
+ | === Assistenza === | ||
+ | |||
+ | Per qualsiasi dubbio o informazione potete mandare una mail all'IT Division all' | ||
+ | |||
+ | < | ||
+ | |||
+ | Verrete contattati al più presto dal gruppo. | ||
+ | |||
+ | |||
+ | |||
+ | |||
+ | |||
+ | ---- | ||
+ | ---- | ||
+ | ---- | ||
+ | ---- | ||
+ | |||
+ | \\ | ||
+ | < | ||
+ | |||
+ | ==== SUBMISSION ==== | ||
+ | ---- | ||
+ | |||
+ | The submission of a job will be done by three specific queues called **parallel** , **longparallel** and **neparallel** and directed on Zefiro cluster where the cores were grouped bunch of 32core that correspond to physical cores of two of the four processors a machine. Each bunch of 32core is considered a jobslot. So each node have 2 JOBSLOT. The characteristics of the available queues are: | ||
+ | |||
+ | |||
+ | |||
+ | **parallel**: | ||
+ | |||
+ | // The option to use the interactive more allows to open a shell on the compute node used by the queue directly from the home user; by command ' | ||
+ | |||
+ | //In this case the submission command will be:// | ||
+ | < | ||
+ | |||
+ | **longparallel**: | ||
+ | |||
+ | |||
+ | **neparallel**: | ||
+ | \\ | ||
+ | |||
+ | For the assignment of all jobslot on the same node, user must include the following string to the submission command. | ||
+ | < | ||
+ | |||
+ | Ff the number of jobslot is a multiple of 2, for the allocation of entire nodes, users is necessary includes the following string at the submission command | ||
+ | < | ||
+ | |||
+ | __Only for neparallel, if user wants to extend the walltime (default 24h), up to a maximum of 1 weeks(10080 minutes), is necessary add the parameter | ||
+ | |||
+ | \\ | ||
+ | [[strutture: | ||
+ | \\ | ||
+ | \\ | ||
+ | In the user's home directory the files generated will be called filename.out.err (list of errors) and filename.out.out (all output information of the running phase) if the option -e and -o are used.\\ | ||
+ | |||
+ | __If user do not enter the name of one of the groups or Specific initiatives, | ||
+ | \\ | ||
+ | |||
+ | |||
+ | __NOTE__\\ | ||
+ | the path to mpirun.lsf is\\ | ||
+ | / | ||
+ | The executables and other mpi compilers are in \\ | ||
+ | / | ||
+ | |||
+ | //The compilers are not present on the User Interface, but only on the hosts so to build, user must submit through the appropriate queues (see 'DEBUG OF JOBS' and ' | ||
+ | |||
+ | [[strutture: | ||
+ | ---- | ||
+ | |||
+ | === to request help === | ||
+ | |||
+ | For any questions or information users can send an email to the IT Division: | ||
+ | |||
+ | < | ||
+ | |||
+ | You'll be contacted asap by a member' | ||
+ | |||
+ | |||
+ | |||
+ | |||