===== Tabella di comparazione di stack Cloud ===== **Nota: inserire ove possibile puntatori per i punti indicati in tabella.** ^ Funzionalità ^ [[http://www.openstack.org/|OpenStack]] ^ [[http://sourceforge.net/projects/cloudstack/|CloudStack]] ^ [[http://opennebula.org/|OpenNebula]] ^ [[http://web.infn.it/wnodes|WNoDeS]] (per job scientifici) ^ | **API Supportate** | OCCI/EC2/ vCloud/WEB/ PHP/Python/ Ruby/Java/ C#/CLI/S3 | REST/EC2/S3 | OCCI/EC2/ vCloudWEB/ JAVA/PERL/ PHP/S3 | OCCI, [[http://iopscience.iop.org/1742-6596/331/5/052017|integrazione con Grid]], integrazione con local batch systems, local CLI | | **Hypervisor supportati** | KVM/XenServer/Hyper-V/LinuX Containers/ARM/vSphere | KVM/XenServer/Xen Cloud Platform/Oracle VM/vSphere/HW host | KVM/Xen/vSphere (tramite plugin si possono usare OpenVZ e Hyper-V) | KVM | | **Object Storage** | **Si**: fornisce **Swift** progetto usabile anche stand-alone | Supporta molti sistemi di Object Storage esterni, fra cui Swift, caringo e altri | Non ha un suo servizio di Object Storage ma può usare quelli già disponibili | N/A | | **Volume Storage** | NFS, Local disk | iSCSI, NFS, local disk, CEPH, DELL, NetApp | NAS/iSCSI/Local/VMwareFS (http://opennebula.org/documentation:rel3.8:sm) | N/A (integrabile all'interno delle VM, anche con gateway NFS vs. es. GPFS/Lustre/SSHFS/etc. sull'hypervisor locale) | | **Network** | VLANs, static IPs or DHCP, dynamically rerouting, software- defined networking, intrusion detection systems, load balancing, firewalls | OpenFlow, VLANs e flat networks, firewall, load balancing, integrazione com NetScaler and Juniper | Open vSwitch, VLANs e flat networks | VLANs, flat networks, static IPs or DHCP, **[[http://goo.gl/Zb9df|dynamic virtual networks]]** (in beta) | | **Scalabilità** | Il CERN sta costruendo su OpenStack il Tier0 distribuito (http://www.slideshare.net/noggin143/20121115-open-stackchusergroupv12). San Diego SuperComputing Center ha una installazione con oltre 5PByte di spazio disco (http://arstechnica.com/business/2011/09/supercomputing-center-targets-55-petabyte-storage-at-academics-students/) | Si possono gestire circa 30'000 VirtualMachine con solo 4 Management Node | Test di scalabilità condotti al CERN fino a 16'000 VirtualMachine (http://opennebula.org/users:testimonials) | Utilizzato in produzione al Tier-1 INFN dal 2009 con varie migliaia di VM istanziate e running dinamicamente e contemporaneamente | | **Soluzioni di HA** | Esistono già procedure standardizzate per fornire l'HA dei servizi centrali/é possibile configurare le macchine virtuali per la live migration | Esistono già procedure standardizzate per fornire l'HA dei servizi centrali/é possibile configurare le macchine virtuali o per l'HA o per la live migration. Possibilità di snapshot periodici delle VM per fare il backup | Procedure meno standardizzate per l'HA dei servizi centrali/è possibile configurare le macchine virtuali per la live migration | I servizi centrali possono essere ridondati con procedure standard di HA | | **Note** | Ottimo supporto da parte di molte aziende coinvolti del business di cloud. Soluzione Completa e modulare. Grossa base di utenti | Progetto della Apache Foundation. Già disponibile la possibilità di **set-up geografico su WAN** gestito da un unico portale Web. Success Story: http://www.citrix.com/news/announcements/apr-2012/citrix-unveils-next-phase-of-cloudstack-strategy.html | Soluzione più modulare con la possibilità di implementare diversi plugin per i vari componenti. Per esempio esistono già **due scheduler diversi per l'allocazione delle risorse** | Rilasciato come parte della [[http://www.eu-emi.eu/|European Middleware Initiative]]; integrato in una versione beta dell'[[https://portal.italiangrid.it/|IGI Portal]]; utilizzato nella [[https://wiki.egi.eu/wiki/Fedcloud-tf:FederatedCloudsTaskForce|EGI Federated Cloud Task Force]]; utilizza un batch system, integrato con una farm locale, per la definizione delle policy di allocazione risorse; batch system supportati: IBM Platform LSF, Torque/Maui, SLURM [in sviluppo]; in progress integrazione all'interno di OpenStack; gestisce **[[http://web.infn.it/wnodes/index.php/mixed-mode-faq|mixed mode]]** per integrazione di job non virtualizzati e job virtualizzati allo stesso tempo, sulle stesso hardware; fornisce un "cache manager" per la velocizzazione dell'istanziazione delle VM ; in sviluppo la [[http://iopscience.iop.org/1742-6596/331/7/072017|allocazione di virtual pool interattivi]] | | **Esperienze nell'INFN** | Esperienze al CNAF, Perugia, Napoli e Padova | In test a Bari | In produzione a Torino e a Roma2/In test a Bari | In produzione al Tier1 su LSF; in produzione al CNAF per EGI Fed-Cloud su Torque/Maui; previsto in test a Bari su SLURM |