Reading Time: 3 minutes

Questo è l’elenco delle keynote previste durante il Dell Storage Forum Paris:

  • 9:00AM CET Wednesday, November 14, 2012 “Selling the Dell Storage Advantage – A Customer Conversation”
    Client, cloud, converged. These key technology transitions are changing the nature of the data centre, and offering you even more opportunity to sell your customers on the benefits of Dell storage and a Fluid Data architecture. Greg Davis, Global Channel Chief, will tell you how to tap into training and partner-only programs to help fast forward your business with Dell. Then, Brett Roscoe, General Manager and Executive Director, PowerVault and Data Management Solutions, will join several Dell storage experts—Travis Vigil, EqualLogic; Andy Hardy, Compellent; and Eric Endebrock, AppAssure—to talk about how you can use these technology transitions to your advantage in a customer conversation. They’ll provide tips on how to position the right Dell storage products, and how to leverage time-tested use cases and reference architectures to validate your proposed solution.
  • 9:00AM CET Thursday, November 15, 2012 “Fluid Forward”
    From client to cloud to converged, the nature of the data centre is changing, with competing models for how IT is delivered to help a business grow. To keep pace with dynamic data growth, you need the Fluid Data architecture—storage designed to move your business forward today while also preparing you for the future. Join forwardthinking industry veteran Darren Thomas as he walks you through the Dell storage strategy and announces new advancements to the Fluid Data architecture. Hear from the Dell storage engineering leadership team—Brett Roscoe, General Manager and Executive Director, PowerVault and Data Management Solutions; Alan Atkinson, General Manager, Compellent Solutions; and Pete Korce, Vice President and General Manager, EqualLogic Solutions—about how we’re accelerating innovation and moving the Fluid Data architecture forward.
  • 9:00AM CET Friday, November 16, 2012 “Moving You Forward – The Furure of Fluid”
    Look into the future of your IT infrastructure with Stefanie Myers-Woodbury, Director of Storage Strategy for Dell, as she sketches out the evolution of the Fluid Data architecture, including tiering beyond the array, converged data protection and cloud integration. She will be joined by three of Dell’s senior architects, who whiteboard the future of our core technologies and change the way you think about storage.

Per chi non è a Parigi, è comunque possibile seguirle tramite il Dell LiveStream Broadcasts.

Reading Time: 2 minutes

Sono in viaggio per Parigi per partecipare alla seconda edizione europea del Dell Storage Forum (la prima si era svolta a Londra ad inizio dell’anno ed ero presente anche lì). Io sarò a Parigi dal 13 al 15 novembre. Come già accaduto al primo evento, “Fluid” sarà la parola chiave più usata, e il tema principalare sarà il concetto di “Fluid Forward”.

L’agenda dell’evento è molto ricca, con più di 60 sessioni commerciali e tecniche, 5 roadmap di prodotti, 3 sessioni plenarie, 16 ore di hands-on labs (con la possibilità di toccare con mano gli ultimi Dell CompellentEqualLogicPowerVault e DX Object Storage) e 3 corsi complementari. Le occasioni per imparare non mancheranno di sicuro. E sarà anche una ghiotta occasione per scoprire le novità prima che arrivino sul mercato!

Ma vi saranno anche eventi altrettanto importanti, come il Fluid Forward Think Tank e lo #storagebeers. Nei prossimi giorni/settimane cercherò di raccontare quanto visto/sentito.

Sarà possibile seguire l’evento su Twitter usando l’hashtag #DellSF o sulla relativa pagina Facebook. Per maggiori informazioni vedere il sito web dell’evento e il relativo comunicato stampa.

Reading Time: 3 minutes

Nel mio incontro con Spectra Logic, durante il recente evento Powering the cloud, ho avuto modo di parlare con Steve Mackey (VP International). L’azienda è specializzata nel design e nella realizzazione di soluzioni di data protection con tecnologia di backup su tape e su disk.

A differenza della maggior parte delle altre aziende incontrate durante questo evento, Spectra Logic vanta un’invidiabile lunga storia (più di 30 di esperienza nel mondo dello storage) e in effettivi è molto conosciuta negli USA, ma ancora relativamente poco in Europa (e ancora meno in Italia). Non a caso, uno dei loro obiettivo è proprio di aumentare la loro quota in Europa.

continue reading…

Reading Time: 3 minutes

Nel mio incontro con APTARE, durante il recente evento Powering the cloud, ho avuto modo di parlare con Nigel Houghton (Regional director of sales EMEA).

APTARE è un’azienda specializzata nell’enterprise data center optimization e fornisce soluzioni software per migliorare e massimizzare gli ambienti di storage, riducendone il TCO (total cost of ownership), pur mantenendo la garanzia che i dati critici rimangano o siano protetti.

A differenza di molte altre aziende relativamente giovani, questa ha discreta storia, dato è stata fondata nel “lontano” (informaticamente parlando) 1993. Le persone che hanno costituito l’azienda erano degli sviluppatori specializzati nella progettazione e fornitura di sistemi di database transazionali scalabili in due dimensioni: capacità e prestazioni.

continue reading…

Reading Time: 4 minutes

Nel mio incontro con Virtual Instruments, durante il recente evento Powering the cloud, ho avuto modo di parlare con Skip Bacon (CTO) e Chris James (EMEA Marketing Director) della loro azienda e della loro particolare soluzione.

Virtual Instruments è un’azienda focalizzata sugli aspetti di Infrastructure Performance Management per ambienti fisici, virtuali e cloud (in realtà per ora si intende cloud privati). La piattaforma VirtualWisdom® fornisce visibilità end-to-end e real-time delle performance, dello stato di salute e delle metriche di utilizzo dell’intero sistema. continue reading…

Reading Time: 5 minutes

Nel mio incontro con Avere Systems, durante l’ultimo evento Powering the cloud, ho avuto modo di parlare con Rebecca Thompson (VP Marketing) and Bernhard “Bernie” Behn (Principal Technical Marketing Engineer).

Avere Systems è un’azienda specializzata in soluzioni di NAS Optimization, pensate per scalare in performance e capacità (in modo indipendente) e sfruttare al meglio le soluzioni di storage Flash-based usando funzionalità di real-time tiering.

L’azienda è stata fondata nel 2008 ba un gruppo di esperti di storage. Il presidente e CEO Ronald Bianchini, Jr. era stato Senior Vice President in NetApp e prima ancora, CEO e Co-Founder di Spinnaker Networks, azienda che la sviluppato l’archiettura Storage Grid poi acquistata da NetApp. Da notare anche che il CTO Michael Kazar ha lavorato su diverse versioni del Carnegie Mellon University’s Andrew File System, come pure sull’Andrew Toolkit.

La sede principale si trova a Pittsburgh (PA), ma hanno anche un ufficio in EMEA in UK.

Durante l’incontro abbiamo discusso di come la loro si differenzia rispetto ad altre e soprattutto come cercano di ridurre il problema della latenza degli storage (NAS based).

In una soluzione tradizione di storage vi sono alcuni possibili “generatori” di latenza:

  • HDD latency (tipico per dischi grossi come i SATA, può essere parzialmente ridotto aumentando la velocità dei dischi e/o il loro numero o usando soluzioni SSD)
  • Storage CPU latency (su molti NAS entry level i processori sono molto limitati)
  • Geographic latency (rende poco adatto l’uso di storage NAS su WAN, ovviamente la latenza dipende dalla distanza, ma soprattutto dalla banda disponibile)

Le soluzioni tradizionali per ridurre la latenza dello storage portano ad un incremento dei costi dello stesso.

Nella soluzione di Avere Systems, di definiscono due diversi ruoli:

  • Edge Filer (vicino agli host), prodotto da Avere, che è in grado di ridurre la latenza, aumentare le prestazioni (accelerando le operazioni di lettura, ma anche quelle di scrittura e quelle sui metadati) e garantendo una scalabilità lineare all’aumentare del numero di edge..
  • Core Filer (lo storage tradizionale), che a questo punto può essere ottimizzato sulla capacità, anche mischiando soluzioni di storage di tipo diverso.

Rispetto ad altre soluzioni basate su tecnologia flash, questo approccio risolve alcuni problemi tipici:

  • Filer-Side Flash: in questa soluzione le flash sono lato storage e ovviamente le VM critiche devono essere posizionati sugli storage accelerati, ma il rischio (con una non corretta distribuzione) è trovarsi delle flash non usate. E comunque non può ottimizzare storage remoti.
  • Server-Side Flash: in questa soluzione le flash sono lato host e le VM critiche vanno posizionate sugli host accelerati. In queste soluzioni, per ragioni di consistenza, la cache è di tipo read-only. L’altra problematica è che sono richiesti driver particolari per sfruttare questa architettura.

Con la soluzione Avere FTX Edge Filer si ha a disposizione un Global Flash Pool che può effetturare funzioni di caching sia in lettura che in scrittura, sia sui dati ma anche sui metadati, come pure sulle operazioni di lock. Questo perché il protocollo di storage viene “terminato” sull’edge, trasformandolo in una sorta di “proxy”.

Quando i nodi sono più di due, non solo è possibile scalare le prestazioni della soluzione (in modo completamente lineare, fino a 50 nodi), ma anche implementare una soluzione di HA, dove ogni nodo dispone di un altro di peer, pur mostrando agli host un unico global namespace (basato sulla A3 architecture).

Considerando il traffico che può essere ottimizzato, con queste soluzioni è possibile raggiungere densità maggiori. Si stima un rapporto 100:1 di off-load per VM tipiche in VMware, dove quindi solo 1% del traffico transita poi sui core filer. Notare che tutti gli esempi e case sono al momento basati su architettura VMware (però portabili anche ad altre soluzioni) e che stanno pure sviluppando soluzioni specifiche di off-load con le funzioni VAAI per NAS.

Lato front-end le soluzioni supportano SMB2 (non ci sono ancora date ufficiali per il supporto SMB3) e NFS. Lato back-end solo NFS (sarebbe interessante vedere se prevederanno anche specifici connettori per cloud provider di storage).

Un caso d’uso abbastanza interessante è lo scenario ROBO (Remote Office/Branch Office): in questo caso si può centralizzare tutti gli storage nella sede centrale e disporre nelle periferie di host ESXi con relativi edge filer.

Per maggiori informazioni (in inglese) vedere anche:

Vedere anche: Altri report dell’evento Powering the Cloud 2012.

Reading Time: 4 minutes

Nel mio incontro con Violin Memory, durante il recente evento Powering the cloud, ho avuto modo di parlare con Garry Veale (Managing Director, EMEA) dell’azienda, dei sui prodotti e nello specifico delle soluzioni per la virtualizzazione.

L’azienda è stata fondata nel 2005, ma ha iniziato a rilasciare i primi prodotti solo nel 2009 (un po’ per il tempo necessario a progettare e sviluppare le soluzioni, un po’ per i lunghi tempi di validazione, ma probabilmente anche perché sono negli ultimi anni questo tipo di soluzioni sono divenute appetibili).

Sono focalizzati nella realizzazione di Flash Memory Arrays for Enterprise Data Storage (ossia di storage basati su memorie flash e focalizzati, per ora, solo nel segmento enterprise). In EMEA hanno diversi uffici e persone in UK, Francia, Germania, Austria, Svizzera e Spagna (ancora nulla per ora in Italia) con più di 50 persone. L’approccio al mercato (come spesso accade in questi casi) è completamente indiriretto e si appoggiano a distributori (per l’Italia al momento l’unico distributore è Maticmind). In Italia al momento hanno due grossi clienti.

Il board dell’azienda è composto da persone con notevole spessore tecnico ed esperienza pregressa:

  • Donald Basile (Chief Executive Officer): prima di approdare il Violin, era Chairman e CEO di Fusion-IO e pioniere nell’uso delle schede PCIe flash su server e workstation.
  • Jon Bennett (Founder & CTO): Bachelor of Computer Science degree (with Research Honors) from Carnegie Mellon e Masters Degree from Harvard University.

Per lo sviluppo dei prodotti, ed in particolare della parte di memoria, Violin ha una forte partnership con Toshiba (che detiene numerisi brevetti in queste tecnologie).

I loro prodotti coprono due aree, con due approcci distinti:

  • Application acceleration-> togliere la latenza che viene ridotta (utile in particolare per le Business Critical Applications, e proprio per quello tra i dipendenti Violin vi sono vari esperti in Oracle e SQL Server)
  • Virtualization -> 60% più denso (utile per grossi consolidamenti)

L’obiettivo è ridurre TCO, Capex, Opex in tutti gli scenari di utilizzo (ricordandosi però che stiamo parlando di soluzioni di fascia enterprise).

Il cuore dei loro prodotti è la Flash Memory Fabric, una “rete” delle varie flash pensata per essere resiliente e altamente disponibile. Oltre che pensata per garantire sempre le massime prestazioni (con la cache attiva anche in scrittura), ottimizzare la latenza, ma anche la longevità dei dispositivi.

A differenza dei “comuni” sistemi basati su SSD che comunque riproducono l’elettronica dei dischi, la Flash Memory Fabric è un sistema di interconnessione completamente nuovo e per molti versi innovativo. Tutti i componenti sono hot-swappable. Lo storage è collegato con un front-end SAN a 8Gb/s Fibre Channel, 10GE iSCSI o 40Gb/s Infiniband.

Le gestione è garantita dal Violin Memory Operating System, che fornisce un’interfaccia semplice ed intuitiva.

 

Nelle foto precedenti è possibile notare uno storage della serie 6000 in grado di raggiungere 1 Milione di IOPS, latenza nell’ordine dei microsecondi, fino a 32 TB di capacità RAW in appena 3U!

Il prodotti sono validati e certificati nei confronti di diversi vendor, incluso ovviamente VMware (lo storage è compatibile con le API di tipo VAAI e dispone anche di un plugin per vCenter), ma anche RHEL, SLES, Windows, Hyper-V, Citrix, AIX, Solaris SPARC, Solaris x86, HP-UX.

Vi sono poi anche interessanti partnership con altri vendor per la vendita o per lo sviluppo congiunto di soluzioni. In particolari le due più recenti sono quelle con Symantec e Fujitsu:

Vedere anche: Altri report dell’evento Powering the Cloud 2012.

© 2025-2011 vInfrastructure Blog | Disclaimer & Copyright