Questo post è disponibile anche in: Inglese

Sempre più soluzioni stanno dimostrando che il mondo dei backup si sta spostando dal tradizionale backup to tape (B2T) al backup to disk (B2D), lasciando il dubbio sull’effettiva durata e validità delle soluzioni basate su tape. A dire il vero non è un trend nuovo relativo agli ultimi anni (basti vedere ad esempio questo paper da Lisa 2006, o come Microsoft abbia rimosso il supporto per il backup to tape nel programma di backup incluso con Windows a partire dalla versione Vista), ma ora sembra che il bilancia sia nettamente a favore delle soluzioni basate su disco.

Il consorzio Linear Tape Open (LTO) (che include tra l’altro Hewlett-Packard, IBM e Quantum) ha recentemente rilasciato le specifiche LTO 5 che offrono 1,5 TB di capacità nativa e un throughput di 140MBps (non compresso)… è già sta lavorando a nuovi standard, lasciando quindi intendere che il tape non è ancora obsoleto. Ma pure i dischi stanno crescendo di capacità (i costi in realtà non calano più di tanto, a seguito dei noti problemi negli stabilimenti).

Vi sono varie ragioni per le quali una soluzione di B2D può risultare più adeguata rispetto ad una soluzione di B2T:

  • La dimensione dei backup sta crescendo, sia perché i dati stessi stanno crescendo (ad esempio quando si parla di big data), ma anche perché spesso nei backup non vi sono solo dati applicativi, ma sempre più file di sistema o immagini di sistemi (ad esempio quando si implementa un backup di un ambiente virtuale).
  • La capacità dei tape al momento è limitata (1,5 TB per LTO5) rispetto a quella dei dischi (2-3 TB per i dischi SATA).
  • Le tape library non sono poi così scalabili (riempiti tutti gli slot l’unico modo è cambiare le cassette) e soprattutto non hanno un grande parallelismo (il numero di job concorrenti è vincolato dal numero di drive ma anche dalla meccanica della libreria).
  • Benché apparentemente un tape drive potrebbe sembrare veloce (140MBps uncompressed per un LTO5) rispetto ad un disco SATA (circa 35MBps), i dischi si possono facilmente organizzare in strutture RAID per aumentarne il parallelismo e le prestazioni… inoltre non bisogna dimenticarsi dei tempi decisamente lunghi per il look-up e l’allocazione di una cassetta.
  • La deduplica è normalmente più efficiente (in termini di spazio salvato) della semplice compressione (e comunque possono lavorare insieme)… ma implementare la deduplica su tape è decisamente più complicato che implementarla su disco.
  • Alcuni programmi di backup (specialmente quelli nati per il mondo virtuale, come Veeam Backup, Quest vRanger o PHD Virtual Backup) non gestiscono direttamente il B2T.
  • Un software di B2T potrebbe richiede un server di backup fisico (almeno per la parte “media server”), soprattutto se consideriamo le connessioni SAS (in questo caso molti vendor di software di backup su tape non certificano una soluzione in virtuale con un SAS passthrough, anche nel caso funzioni).
  • I tempi di restore da un pool di dischi sono normalmente migliori di quelle da nastro e in alcuni casi i dati potrebbe essere direttamente fruibili.

In realtà qualche punto a favore dei tape comunque esiste, rendendo questo tipo di soluzioni non necessariamente inutili, ma magari da abbinare ad una soluzione di B2D2T multilivello. Tra i possibili vantaggi:

  • Un nastro può essere archiviato off-line… farlo con un disco (specie se è parte di un RAID) non è affatto semplice.
  • La durata di un nastro archiviato può essere più lunga di quella di un disco (in realtà è tutto da verificare e molto dipende dalle condizione di conservazione).
  • Il costo per GB di un nastro è inferiore, ma con la deduplica si può arrivare a valori comparabili anche con i dischi.
  • Le unità a nastro spesso implementano la compressione (e a volte anche la cifratura) in hardware. Vero è che lo stesso si potrebbe dire per appliance di deduplica nel mondo B2D.

Per ulteriori informazioni vedere (in inglese):

Per chiudere c’è da menzione anche un “cattiva informazione” sull’uso di alcune funzioni degli storage attuali… anche se lo storage ha funzioni di snapshot (magari anche livello applicativo) e magari pure di restore granulare, non vuol dire che queste soluzioni rendono inutili i concetti di backup… al più possono essere un backup di primo livello (per un punto di ripristino estremamente veloce), ma poi i dati devono essere salvati da un’altra parte e soprattutto storicizzati.

This post has already been read 2609 times.

Andrea MauroAbout Andrea Mauro (2718 Posts)

Virtualization, Cloud and Storage Architect. Tech Field delegate. VMUG IT Co-Founder and board member. VMware VMTN Moderator and vExpert 2010-18. Dell TechCenter Rockstar 2014-15. Microsoft MVP 2014-16. Veeam Vanguard 2015-18. Nutanix NTC 2014-18. PernixPro 2014-16. Several certifications including: VCDX-DCV, VCP-DCV/DT/Cloud, VCAP-DCA/DCD/CIA/CID/DTA/DTD, MCSA, MCSE, MCITP, CCA, NPP.


Related Post:

Share