cn:ccr:cloud:comparazione
Tabella di comparazione di stack Cloud
Nota: inserire ove possibile puntatori per i punti indicati in tabella.
Funzionalità | OpenStack | CloudStack | OpenNebula | WNoDeS (per job scientifici) |
---|---|---|---|---|
API Supportate | OCCI/EC2/ vCloud/WEB/ PHP/Python/ Ruby/Java/ C#/CLI/S3 | REST/EC2/S3 | OCCI/EC2/ vCloudWEB/ JAVA/PERL/ PHP/S3 | OCCI, integrazione con Grid, integrazione con local batch systems, local CLI |
Hypervisor supportati | KVM/XenServer/Hyper-V/LinuX Containers/ARM/vSphere | KVM/XenServer/Xen Cloud Platform/Oracle VM/vSphere/HW host | KVM/Xen/vSphere (tramite plugin si possono usare OpenVZ e Hyper-V) | KVM |
Object Storage | Si: fornisce Swift progetto usabile anche stand-alone | Supporta molti sistemi di Object Storage esterni, fra cui Swift, caringo e altri | Non ha un suo servizio di Object Storage ma può usare quelli già disponibili | N/A |
Volume Storage | NFS, Local disk | iSCSI, NFS, local disk, CEPH, DELL, NetApp | NAS/iSCSI/Local/VMwareFS (http://opennebula.org/documentation:rel3.8:sm) | N/A (integrabile all'interno delle VM, anche con gateway NFS vs. es. GPFS/Lustre/SSHFS/etc. sull'hypervisor locale) |
Network | VLANs, static IPs or DHCP, dynamically rerouting, software- defined networking, intrusion detection systems, load balancing, firewalls | OpenFlow, VLANs e flat networks, firewall, load balancing, integrazione com NetScaler and Juniper | Open vSwitch, VLANs e flat networks | VLANs, flat networks, static IPs or DHCP, dynamic virtual networks (in beta) |
Scalabilità | Il CERN sta costruendo su OpenStack il Tier0 distribuito (http://www.slideshare.net/noggin143/20121115-open-stackchusergroupv12). San Diego SuperComputing Center ha una installazione con oltre 5PByte di spazio disco (http://arstechnica.com/business/2011/09/supercomputing-center-targets-55-petabyte-storage-at-academics-students/) | Si possono gestire circa 30'000 VirtualMachine con solo 4 Management Node | Test di scalabilità condotti al CERN fino a 16'000 VirtualMachine (http://opennebula.org/users:testimonials) | Utilizzato in produzione al Tier-1 INFN dal 2009 con varie migliaia di VM istanziate e running dinamicamente e contemporaneamente |
Soluzioni di HA | Esistono già procedure standardizzate per fornire l'HA dei servizi centrali/é possibile configurare le macchine virtuali per la live migration | Esistono già procedure standardizzate per fornire l'HA dei servizi centrali/é possibile configurare le macchine virtuali o per l'HA o per la live migration. Possibilità di snapshot periodici delle VM per fare il backup | Procedure meno standardizzate per l'HA dei servizi centrali/è possibile configurare le macchine virtuali per la live migration | I servizi centrali possono essere ridondati con procedure standard di HA |
Note | Ottimo supporto da parte di molte aziende coinvolti del business di cloud. Soluzione Completa e modulare. Grossa base di utenti | Progetto della Apache Foundation. Già disponibile la possibilità di set-up geografico su WAN gestito da un unico portale Web. Success Story: http://www.citrix.com/news/announcements/apr-2012/citrix-unveils-next-phase-of-cloudstack-strategy.html | Soluzione più modulare con la possibilità di implementare diversi plugin per i vari componenti. Per esempio esistono già due scheduler diversi per l'allocazione delle risorse | Rilasciato come parte della European Middleware Initiative; integrato in una versione beta dell'IGI Portal; utilizzato nella EGI Federated Cloud Task Force; utilizza un batch system, integrato con una farm locale, per la definizione delle policy di allocazione risorse; batch system supportati: IBM Platform LSF, Torque/Maui, SLURM [in sviluppo]; in progress integrazione all'interno di OpenStack; gestisce mixed mode per integrazione di job non virtualizzati e job virtualizzati allo stesso tempo, sulle stesso hardware; fornisce un "cache manager" per la velocizzazione dell'istanziazione delle VM ; in sviluppo la allocazione di virtual pool interattivi |
Esperienze nell'INFN | Esperienze al CNAF, Perugia, Napoli e Padova | In test a Bari | In produzione a Torino e a Roma2/In test a Bari | In produzione al Tier1 su LSF; in produzione al CNAF per EGI Fed-Cloud su Torque/Maui; previsto in test a Bari su SLURM |
cn/ccr/cloud/comparazione.txt · Last modified: 2013/09/09 09:49 by fzani@infn.it