Ricordi quando un terabyte di dati sembrava qualcosa di fantascientifico? E 'stato solo pochi anni fa, ma ora puoi comprare un disco Terabyte in qualsiasi negozio di computer di strada.

Ebbene, l'anno scorso il traffico mondiale di data center a livello mondiale lo scorso anno ha colpito 2,6 Zetabyte (ZB) - ovvero 2,6 miliardi di milioni di gigabyte o 2,6x10 ^ 15 megabyte di dati trasmessi. Ma c'è di più; il traffico del data center è previsto per raggiungere 4,1ZB l'anno prossimo e entro il 2016, salirà del 250 percento a 6,6ZB.

Tali massicci aumenti di traffico non possono verificarsi senza il data center e l'infrastruttura di rete, industrie che stanno affrontando la sfida. Ciò significa non solo un maggior numero di data center, ma anche modifiche all'infrastruttura di interconnessione - fibra e rame - implementate all'interno della crescente popolazione globale di data center.

Quindi chi è leader, domanda o tecnologia?

Prima di entrare nel dettaglio del cablaggio, diamo un'occhiata a cosa sta guidando questa crescita pianificata dei dati - e ricordiamo che stiamo parlando della quantità di dati trasmessi, non della quantità memorizzata.

Due cose stanno spingendo il traffico dalla sfera degli utenti (sia dei consumatori che degli affari). Il primo è la crescita di dispositivi mobili abilitati a Internet come smartphone e tablet.

Il numero totale di dispositivi Internet mobili venduti ha superato il numero di PC venduti nel 2011 - e entro il 2016 ci saranno il doppio dei dispositivi mobili come PC e laptop.

Questa crescita dei dispositivi è quindi aggravata dal secondo: la crescita del video degli utenti.

Ad esempio, un CIO del data center durante una conferenza DCD ha affermato di aver calcolato che durante un concerto pop ha frequentato persone che condividono foto su Facebook e MySpace, trasmettono video live agli amici e caricando su YouTube hanno creato 5 TB di dati. dovevano essere trasmessi a e attraverso i data center. E quello era un singolo evento da 90 minuti!

Nello spazio aziendale l'architettura sta cambiando. C'è un passaggio significativo dai client "grassi" (dove le applicazioni girano sul PC dell'utente) in combinazione con i server locali - per thin client per utenti e server banditi in enormi data center dove i costi di alimentazione possono essere dimezzati, resilienza garantita e uptime garantita da controlli e processi operativi altamente sistematici.

Che si tratti di cloud pubblico, cloud privato o server remoti in data center in co-location, l'effetto è simile - c'è ancora molto traffico client-server, anche se questo è ora tramite la WAN e un enorme aumento del traffico di server serviti all'interno del Banca dati.

Infatti, secondo Cisco entro il 2011, il 17% del traffico proveniva dal data center all'utenza, il sette percento dal data center al data center e un enorme 76% era all'interno del data center traffic.

Non solo c'è un enorme aumento nel traffico all'interno del data center, l'uso crescente della virtualizzazione significa che ogni interfaccia di rete di server fisici ora deve trasportare il traffico da 8, 10, forse 12 server virtuali.

Ciò indica che la connettività 10Gbps Ethernet (10GbE) che viene ora implementata solo nella rabbia non avrà una capacità adeguata per più dei prossimi anni.

Una recente previsione di Cisco indica che il 2013 vede la maggior parte dei server del mondo interconnessi da 10 GbE, con GbE quasi completamente eliminato e una piccola percentuale che utilizza 40GbE. Entro il 2017, non solo ci saranno molti più server, ma due terzi di questi saranno disponibili con connettività 40GbE secondo Intel e Broadcom.

Il 2020 sarà quasi testimone del raddoppio del numero di server di oggi, tutti collegati a 40 GbE o 100 GbE. Tutto ciò significa che è una vera corsa per la tecnologia delle infrastrutture per stare al passo con la crescente domanda di velocità di interconnessione dei dati.

Uno schema

È interessante notare che abbiamo passato abbastanza iterazioni degli aggiornamenti di velocità Ethernet per vedere il modello che è probabile che si applichi nel prossimo aggiornamento, da 10 Gbps a 40 Gbps, e questo è il seguente:

I primi utenti con requisiti di elaborazione ad alte prestazioni avranno prima bisogno di 40 e 100 Gbps, e useranno le soluzioni a fibra ottica ea corto raggio in anticipo prima che sia disponibile una soluzione di cablaggio BASE-T.

Le soluzioni da 40 e 100 Gbps per la connettività ad alta densità utilizzeranno il coassiale multi-lane, ma solo nella parte superiore del rack (ToR) poiché la portata massima è di soli 7 m. L'implementazione da 40GBps è effettivamente 4 x 10Gbps "corsie" affiancate, quindi il suo time-to-market è stato veloce ed è ora disponibile.

L'elettronica per il multiplex di tali dati ad alta velocità è complessa, e i cavi sono ingombranti e molto costosi - quindi è solo una soluzione di "early adopter".

In particolare, se si tiene conto del fatto che il vincolo di lunghezza indica che ogni rack deve avere uno switch ToR (top of rack) con connessioni in fibra ad alta velocità agli interruttori di livello superiore.

Dover installare un commutatore per rack è ovviamente costoso in termini di costi di capitale, contratti di manutenzione e consumo di energia. È anche difficile da gestire.

L'attrazione di un maggiore utilizzo delle porte negli switch centralizzati utilizzando un'implementazione di fibra è ovvia. La distribuzione degli switch ToR spreca anche 2U o 3U in ogni rack che potrebbe altrimenti essere utilizzato per i server di produzione, potenzialmente un grande costo opportunità.

Una serie di soluzioni in fibra da 40 Gbps è già disponibile per collegamenti più lunghi, ma i vantaggi in termini di costi di una soluzione in rame BASE-T (quando disponibile) è ancora probabile che sia la soluzione ideale, tramite connessioni in fibra, affinché il server possa passare.

Nel frattempo, mentre queste installazioni early-adopter sono state implementate, la comunità Ethernet si sta preparando a iniziare a lavorare su uno standard di cablaggio di 40Gbps oltre la categoria, sebbene al momento della scrittura, IEEE non abbia ancora formato un gruppo di lavoro per sviluppare tale standard.

Se possiamo supporre che il gruppo IEEE sia formato, allora potremmo ipotizzare che potremmo vedere le soluzioni di categoria pre-standard da 40 Gb / s a ​​fine 2014 seguite da un 40GBASE-T standardizzato nel 2015.

Ne vale la pena 40Gbps Ethernet?

Ci si potrebbe chiedere se valga la pena di sviluppare Ethernet a 40 Gbps se non sarà disponibile fino a due anni dopo? La risposta è una di economia semplice.

Guardando indietro a 10 Gbps, un collegamento da fibra a server a server, comprese le interfacce di rete, i patchcorr ecc. All'interno del data center costava originariamente circa $ 1000. Una soluzione coassiale a corto raggio equivalente era di $ 700 (ma in più era il costo di tutti gli switch extra necessari). Tuttavia, quando 10GBASE-T è entrato in funzione, il costo è crollato a $ 400.

Per 40 Gbps, anche se i costi saranno tutti più alti, possiamo aspettarci di vedere uno schema simile. Dato che la maggior parte dei data center "di produzione" avranno solo bisogno di connessioni server 40GBps in grandi volumi dal 2016 al 2022, 40GBASE-T è probabilmente la soluzione che avrà maggior senso dal punto di vista economico.

Attualmente, gli standard dei data center come EN51073-5 e ISO / IEC 24764 richiedono che ciascuna "zona" nel data center sia dotata di un "distributore di zona" (ZDA). Questo può essere un interruttore o pannello di permutazione top of rack (MoR), una riga centrale (MoR) o una fine riga (EoR), uno switch o una cornice patch.

Per l'attuale build-out del 10GBASE-T raccomandiamo principalmente interruttori MoR o EoR con tronchi in fibra al telaio principale di distribuzione, (Fig. 5) sebbene alcuni casi richiedano approcci diversi per soddisfare i requisiti aziendali.

Abbiamo bisogno di cambiare la topologia per 40GBASE-T? La risposta probabile è sì. Un po.

Attualmente sembra improbabile che il 40GBASE-T sia capace di collegamenti di 100 m, a differenza di tutti i precedenti BASE-Ts. Il discorso attuale è di 30 metri. Ma le ricerche condotte per il nostro cavo di zona a 10 Gbps hanno indicato che 50 m coprono circa il 90 percento di tutte le lunghezze dei collegamenti del data center, quindi non è difficile pianificare i collegamenti con questa lunghezza.

Un possibile cambiamento è che la commutazione centralizzata non sarà così popolare come era (a meno che non venga utilizzata la fibra a modalità singola) e l'installazione di interruttori EoR e MoR sarà l'architettura preferita.

Il cablaggio del tronco dagli switch EoR & MoR al MDF centrale e gli interruttori centrali potrebbero essere in fibra multimodale OM4 da 40/100 Gbps, anche se questo richiede otto fibre per collegamento per 40 GbE e venti fibre per ogni collegamento 100 GbE.

Questa potrebbe essere la scelta preferita per i data center di co-location desiderosi di contenere CapEx poiché le interfacce ottiche multi-mode sono significativamente più economiche rispetto alla modalità singola.

Lo svantaggio naturalmente è che c'è bisogno di eseguire molto più fibra per passare da 10G a 40G e poi a 100G - con conseguenti interruzioni e pericolo di interruzione del servizio.

Considerato questo da una prospettiva di flessibilità e minimizzazione delle interruzioni, una preferenza potrebbe essere quella di passare direttamente alle soluzioni single mode basate sulla connettività duplex con pannelli ad alta densità che forniscono connessioni incrociate a connessioni server e switch.

La modalità singola richiede solo due fibre per collegamento sia che funzioni a 1 Gbps, 40 Gbps o 100 Gbps. Ciò significa che gli aggiornamenti dell'interfaccia switch da 10 a 40 a 100 Gbps possono essere eseguiti senza modifiche necessarie al backbone del data center.

I collegamenti dagli switch situati in zone agli switch e ai server di livello superiore saranno una scelta dell'utente. 40GE su fibra è già disponibile e mentre 40GBASE-T risulterà meno costoso, c'è ancora una questione di quando e in effetti se sarà commercialmente disponibile.

Quindi il nostro consiglio qui sarà utilizzare la fibra se il tuo requisito deve essere implementato prima che la disponibilità di rame 40G sia chiara.

Nel complesso, la crescita del traffico di Internet e dei data center nei prossimi anni significa che vivremo in tempi molto eccitanti con la domanda che potrebbe sorpassare la tecnologia e una pressione significativa sui produttori di infrastrutture di cablaggio e sugli integratori per continuare a correre in gara.

Per i cattivi gestori di data center, il cui obiettivo e il compito di previsione a prova di futuro non sono mai stati facili, mi dispiace dire che è diventato più difficile.

Consiglio vivamente ai responsabili dei data center di discutere i loro piani con i produttori di cablaggi di alto livello in una fase molto precoce per ridurre il più possibile i loro progetti e investimenti..

  • Ken Hodge è il CTO di Brand-Rex ed è coinvolto nella progettazione, NPD e nuove tecnologie, promuovendo la Società e i suoi prodotti e rappresentando i nostri interessi nel campo della standardizzazione internazionale.