User Tools

Site Tools


strutture:cnaf:cnaf_rd:infrastruttura:utilizzo_cluster:gestione_gpu

Gestione delle GPU

Le GPU presenti sui 2 server COKA sono tutte impostate per l'esecuzione di programmi in modalità Exclusive Process: questo significa che su ogni singola GPU non viene consentito il context switch fra processi diversi durante l'esecuzione. E' consentito invece il context switch fra thread dello stesso processo. Il batch system schedula i job che richiedono l'uso delle GPU basandosi sull'opzione -R specificata nel job: quindi se un server ha 2 GPU, verranno mandati su di esso al massimo due job che richiedono l'uso di quel tipo di GPU, oppure un solo job che ne richiede 2. Se altri job richiedono lo stesso tipo di risorsa, restaranno in coda. Ogni GPU viene indirizzata dalle librerie CUDA mediante il proprio ID, un numero intero 0-based, visualizzabile con i comandi:

$ nvidia-smi
$ nvidia-smi -q

E' compito dell'utente specificare l'ID giusto all'interno del codice del proprio programma, utilizzando le opportune funzioni delle librerie CUDA.

strutture/cnaf/cnaf_rd/infrastruttura/utilizzo_cluster/gestione_gpu.txt · Last modified: 2013/10/31 08:44 by caberletti@infn.it

Donate Powered by PHP Valid HTML5 Valid CSS Driven by DokuWiki