This post is also available in: Inglese

Reading Time: 4 minutes

Qualche giorno fa ho avuto l’occasione di parlare con Eric Keohan e Jonathan Klick di Infinio per conoscere con maggior dettaglio la loro soluzione di storage acceleration per ambienti VMware.

Infinio è una di quelle storage start-up nata nel 2011 ed uscita dallo stealth mode durante il Tech Field Day 9. Nata dal mondo universitario (professor Vishal Misra e i suoi ricercatori) è poi approdata ad una realtà industriale con un prodotto molto innovativo nella sua semplicità: un appliance di host cache per host ESXi in grado di accelerare le prestazioni di un datastore NFS.

InfinioLa soluzione è decisamente interessante e rientra in quel tipo di soluzioni volte ad implementare una cache lato host per migliorare le prestazioni di uno storage esistente. L’aspetto forse più interessante e probabilmente anche unico è che si tratta di una soluzione veramente veloce da installare (in un paio di minuti è pronta) e che non richiede interruzioni per attivazione (o disattivazione), installazione di driver o riavvio di host: è veramente una soluzione a zero-downtime.

Un altro aspetto interessante (anche se in questo caso non è unico) è che utilizza memoria RAM per accelerare lo storage, quindi senza bisogno di costosi SSD o soluzioni flash based!

In linea di massima, il deployment richiede pochi semplici passaggi:

  • Scaricare il file Infinio Accelerator installer (notare che il periodo trial dura 30 giorni ed è comunque possibile provarlo e rimuoverlo da un ambiente in produzione senza interruzione di sorta)
  • Usare la funzione di “discover” per riconoscere la propria infrastuttura ed identificare quale datatore NFS (al momento solo uno) volete accelerare
  • Eseguire il “deploy” del sistema che si occuperà di istanziare tutte le VA necessarie in modo trasparente

Come scritto, al momento la soluzione funziona solo con datastore NFS e solo con VMware vSphere, ma ho ricevuto conferma che stanno lavorando ad un’implementazione anche per storage di tipo a blocchi (e potenzialmente anche ad una soluzione per altri hypervisor).

Il motivo per il quale al momento è solo NFS consiste proprio nel come viene gestito il deploy, che come già scritto avviene live senza alcuna interruzione: di fatto serve un unico IP di management per l’intera soluzione, poi ogni singola VA (una per ogni host ESXi) verrà istanziata ed userà un IP auto-generato (usando il range degli IP APIPA) su una VLAN dedicata (e sulle NIC fisiche usate per la rete di vMotion, visto che in questo modo si ha la certezza che su quella rete vi è comunicazione tra i vari host). Affinché le varie VA agiscano da “NFS gateway”, il VMkernel esistente su ogni host e dedicato al traffico NFS viene spostato su una nuova VLAN (tipicamente l’ultima disponibile, quindi di solito la 4094) dove la VA rimane in ascolto per ricevere le richieste ed inoltrarle al vero NFS target. Per questo meccanismo di auto-deployment al momento non è supportata la configurazione con distributed virtual switch.

Tutte le varie VA concorrono a creare un cache globale, condivisa e dedupicata.

Notare che ogni singola VA richiede 2 vCPU e 8 GB di vRAM (al momento il valore è fisso ed è stato selezionato per non impattare eccessivamente sulle risorse degli host) e 15 GB di storage locale (in questa prima versione è supportata solo l’installazione su storage locale, nelle prossime sarà possibile avere anche installazione su storage condiviso).

Il tipo di licenza è molto semplice (socket base) ed il prezzo è interessante, considerando che non è richiesto altro hardware e che l’impatto su ogni singolo host è relativamente limitato. Sarà ancora più interessante quando supporteranno anche storage iSCSI.

Sono disponibili numerosi video, tra cui questo introduttivo:

Oppure questo realizzato da Gregg Stuard di vDestination:

Share

Virtualization, Cloud and Storage Architect. Tech Field delegate. VMUG IT Co-Founder and board member. VMware VMTN Moderator and vExpert 2010-24. Dell TechCenter Rockstar 2014-15. Microsoft MVP 2014-16. Veeam Vanguard 2015-23. Nutanix NTC 2014-20. Several certifications including: VCDX-DCV, VCP-DCV/DT/Cloud, VCAP-DCA/DCD/CIA/CID/DTA/DTD, MCSA, MCSE, MCITP, CCA, NPP.