User Tools

Site Tools


cn:ccr:cloud:comparazione

Differences

This shows you the differences between two versions of the page.

Link to this comparison view

Both sides previous revisionPrevious revision
cn:ccr:cloud:comparazione [2013/09/09 07:43] dorigoa@infn.itcn:ccr:cloud:comparazione [2013/09/09 09:49] (current) fzani@infn.it
Line 1: Line 1:
 +===== Tabella di comparazione di stack Cloud =====
  
 +**Nota: inserire ove possibile puntatori per i punti indicati in tabella.**
 +
 +
 +^ Funzionalità      ^  [[http://www.openstack.org/|OpenStack]]        [[http://sourceforge.net/projects/cloudstack/|CloudStack]]      ^  [[http://opennebula.org/|OpenNebula]]  ^  [[http://web.infn.it/wnodes|WNoDeS]] (per job scientifici)  ^
 +| **API Supportate**  |   OCCI/EC2/ vCloud/WEB/ PHP/Python/ Ruby/Java/ C#/CLI/S3    |  REST/EC2/S3    OCCI/EC2/ vCloudWEB/ JAVA/PERL/ PHP/S3    |  OCCI, [[http://iopscience.iop.org/1742-6596/331/5/052017|integrazione con Grid]], integrazione con local batch systems, local CLI  |
 +| **Hypervisor supportati** |  KVM/XenServer/Hyper-V/LinuX Containers/ARM/vSphere    KVM/XenServer/Xen Cloud Platform/Oracle VM/vSphere/HW host      |  KVM/Xen/vSphere (tramite plugin si possono usare OpenVZ e Hyper-V)  |  KVM  |
 +| **Object Storage**    **Si**: fornisce **Swift** progetto usabile anche stand-alone  |  Supporta molti sistemi di Object Storage esterni, fra cui Swift, caringo e altri  |  Non ha un suo servizio di Object Storage ma può usare quelli già disponibili  |  N/A  |
 +| **Volume Storage**    NFS, Local disk  |  iSCSI, NFS, local disk, CEPH, DELL, NetApp  |  NAS/iSCSI/Local/VMwareFS (http://opennebula.org/documentation:rel3.8:sm)  |  N/A (integrabile all'interno delle VM, anche con gateway NFS vs. es. GPFS/Lustre/SSHFS/etc. sull'hypervisor locale)  |
 +| **Network**    VLANs, static IPs or DHCP, dynamically rerouting, software- defined networking, intrusion detection systems, load balancing, firewalls  |  OpenFlow, VLANs e flat networks, firewall, load balancing, integrazione com NetScaler and Juniper  |  Open vSwitch, VLANs e flat networks  |  VLANs, flat networks, static IPs or DHCP, **[[http://goo.gl/Zb9df|dynamic virtual networks]]** (in beta)  |
 +| **Scalabilità**    Il CERN sta costruendo su OpenStack il Tier0 distribuito (http://www.slideshare.net/noggin143/20121115-open-stackchusergroupv12). San Diego SuperComputing Center ha una installazione con oltre 5PByte di spazio disco (http://arstechnica.com/business/2011/09/supercomputing-center-targets-55-petabyte-storage-at-academics-students/ |  Si possono gestire circa 30'000 VirtualMachine con solo 4 Management Node  |  Test di scalabilità condotti al CERN fino a 16'000 VirtualMachine (http://opennebula.org/users:testimonials)  |  Utilizzato in produzione al Tier-1 INFN dal 2009 con varie migliaia di VM istanziate e running dinamicamente e contemporaneamente  |
 +| **Soluzioni di HA**    Esistono già procedure standardizzate per fornire l'HA dei servizi centrali/é possibile configurare le macchine virtuali  per la live migration  |  Esistono già procedure standardizzate per fornire l'HA dei servizi centrali/é possibile configurare le macchine virtuali o per l'HA o per la live migration. Possibilità di snapshot periodici delle VM per fare il backup  |  Procedure meno standardizzate per l'HA dei servizi centrali/è possibile configurare le macchine virtuali per la live migration  |  I servizi centrali possono essere ridondati con procedure standard di HA  |
 +| **Note**    Ottimo supporto da parte di molte aziende coinvolti del business di cloud. Soluzione Completa e modulare. Grossa base di utenti  |  Progetto della Apache Foundation. Già disponibile la possibilità di **set-up geografico su WAN** gestito da un unico portale Web. Success Story: http://www.citrix.com/news/announcements/apr-2012/citrix-unveils-next-phase-of-cloudstack-strategy.html  |  Soluzione più modulare con la possibilità di implementare diversi plugin per i vari componenti. Per esempio esistono già **due scheduler diversi per l'allocazione delle risorse**  |  Rilasciato come parte della [[http://www.eu-emi.eu/|European Middleware Initiative]]; integrato in una versione beta dell'[[https://portal.italiangrid.it/|IGI Portal]]; utilizzato nella [[https://wiki.egi.eu/wiki/Fedcloud-tf:FederatedCloudsTaskForce|EGI Federated Cloud Task Force]]; utilizza un batch system, integrato con una farm locale, per la definizione delle policy di allocazione risorse; batch system supportati: IBM Platform LSF, Torque/Maui, SLURM [in sviluppo]; in progress integrazione all'interno di OpenStack; gestisce **[[http://web.infn.it/wnodes/index.php/mixed-mode-faq|mixed mode]]** per integrazione di job non virtualizzati e job virtualizzati allo stesso tempo, sulle stesso hardware; fornisce un "cache manager" per la velocizzazione dell'istanziazione delle VM ; in sviluppo la [[http://iopscience.iop.org/1742-6596/331/7/072017|allocazione di virtual pool interattivi]]  |
 +| **Esperienze nell'INFN**  |  Esperienze al CNAF, Perugia, Napoli e Padova  |  In test a Bari  |  In produzione a Torino e a Roma2/In test a Bari  |  In produzione al Tier1 su LSF; in produzione al CNAF per EGI Fed-Cloud su Torque/Maui; previsto in test a Bari su SLURM  | 
cn/ccr/cloud/comparazione.txt · Last modified: 2013/09/09 09:49 by fzani@infn.it

Donate Powered by PHP Valid HTML5 Valid CSS Driven by DokuWiki