5 dic 2019

Lista delle tendenze per il 2020

Cosa dovrebbe esserci nella lista delle tendenze per il 2020?

Il crescente volume di dati, un cloud europeo sicuro (sovranità dei dati), la rapida modernizzazione dei data center esistenti e l'aumento dei consumi energetici sono, secondo Rittal, le tendenze che indirizzeranno l'IT e i data center nel 2020. Ad esempio, l'uso della tecnologia OCP (Open Compute Project) e il recupero del calore offrono soluzioni innovative per affrontare le sfide attuali.


Dalle stime di mercato dei ricercatori IDC (International Data Corporation), entro il 2025 uomini e macchine potrebbero generare 175 zettabyte di dati. Tali dati, se memorizzati su DVD convenzionali, formerebbero 23 pile di DVD, ciascuna in grado di coprire la distanza terra-luna. La crescita stimata al 27% del volume medio annuo dei dati significa anche un maggiore impatto sull'infrastruttura IT.


Poiché sono poche le aziende che possono permettersi di aumentare il proprio archivio dati di quasi un terzo all'anno, i responsabili IT si affidano sempre più spesso a servizi IT in cloud. Sia che si tratti di storage o di potenza di calcolo, la tendenza verso il cloud è arrivata da tempo in Germania: un sondaggio pubblicato nell'estate 2019 dall'associazione di settore ITC Bitkom per conto di KPMG aveva evidenziato che tre aziende su quattro stanno già utilizzando il cloud.


Tuttavia, affidarsi a soluzioni cloud di fornitori terzi (public cloud) significa perdere un po' di controllo sui propri dati aziendali. Ad esempio, il regolamento US Cloud Act (Clarifying Lawful Overseas Use of Data) consente alle autorità statunitensi di accedere ai dati archiviati nel cloud, anche se le leggi locali del luogo di archiviazione dei dati lo vietano.


«I successi economici saranno sostenibili in futuro se terranno il passo con la completa digitalizzazione e integrazione. Le aziende useranno sempre più i propri dati per aggiungere valore, sempre più in tempo reale, ad esempio nell'ambiente di produzione», afferma Dr. Karl-Ulrich Köhler, CEO di Rittal International. «Mantenere il controllo sui dati sta diventando un fattore critico di successo per la competitività internazionale », aggiunge.


Trend n. 1: controllo dei dati


L'autodeterminazione informativa nel trattamento dei dati sta diventando un fattore competitivo sempre più importante per le aziende. Questo vale per qualsiasi settore in cui la sicurezza dei dati è una priorità assoluta e l'analisi di questi dati è fondamentale per il successo aziendale: sanità, mobilità, banche o industria manifatturiera. Le aziende si trovano di fronte alla questione di come elaborare i propri dati in modo sicuro ed efficiente e se modernizzare il proprio data center, investire in infrastrutture edge o utilizzare il cloud.


Nel 2020 è previsto l'avvio del progetto digitale europeo su larga scala Gaia-X, nato su iniziativa del Ministero federale tedesco dell'economia e dell'energia (BMWi). L'obiettivo è costruire un cloud europeo per la digitalizzazione sicura e il collegamento in rete dell'industria e come base per lo sviluppo di nuove applicazioni di intelligenza artificiale. In questo contesto, la Fraunhofer Gesellschaft ha realizzato l'iniziativa «International Data Spaces». Si tratta di una sala dati virtuale dove le imprese possono condividere i dati in piena sicurezza. Qui viene anche garantita la compatibilità delle loro soluzioni su piattaforme cloud consolidate (interoperabilità).


Ciò significa che piccoli Data Center, distribuiti geograficamente con cloud stack open-source, potrebbero essere in grado di creare una nuova classe di applicazioni industriali che eseguono la fase iniziale di analisi dei dati nel punto in cui gli stessi hanno origine e utilizzano il cloud per l'analisi a valle. Un esempio per questa soluzione è ONCITE. ONCITE è il Data Center «chiavi in mano» (plug-and-produce) per applicazioni Edge cloud industriali che memorizza ed elabora i dati direttamente dove sono generati, così che le aziende connesse mantengano il controllo dei propri dati lungo l'intera supply chain.


Trend n. 2: Standardizzazione nel data center con OCP


La rapida modernizzazione dei data center esistenti sta diventando sempre più importante per le aziende, poiché il volume di dati che devono essere elaborati continua a crescere. I requisiti per una rapida modernizzazione sono la tecnologia standardizzata, il funzionamento efficiente in termini di costi e l'alta scalabilità dell'infrastruttura. La tecnologia OCP (Open Compute Project) con distribuzione DC centralizzata nel rack IT sta diventando un'alternativa interessante per sempre più CIO. Questo perché i componenti DC aprono nuove possibilità di ottimizzazione dei costi. Ad esempio, tutti i componenti IT possono essere alimentati centralmente con n + 1 unità di alimentazioneper rack. In questo modo si ottiene un raffreddamento efficiente, poiché sono presenti meno unità di alimentazione. Allo stesso tempo, l'elevato grado di standardizzazione dei componenti OCP semplifica sia la manutenzione che la gestione dei pezzi di ricambio. Il guadagno di efficienza è in media di circa il cinque percento della corrente totale.


Per il 2020 Rittal prevede che OCP continuerà a imporsi come piattaforma di sistema end-to-end nel data center. I nuovi prodotti OCP per il raffreddamento dei rack, l'alimentazione o il monitoraggio consentiranno una rapida modernizzazione con componenti DC. Inoltre, i nuovi prodotti supporteranno il concetto convenzionale di alimentazione di emergenza centrale, in cui l'alimentazione è assicurata da un UPS centrale. Ciò significa che non è più necessario, come prima, proteggere ogni rack OCP con un UPS basato su batterie agli ioni di litio Vantaggio: il carico di incendio nel data center OCP è notevolmente ridotto.


Trend n. 3: Recupero del calore e raffreddamento diretto della CPU


I data center rilasciano grandi quantità di energia nell'ambiente sotto forma di calore di scarto. Con l'aumentare della densità di potenza nei data center, aumenta anche la quantità di calore potenzialmente utilizzabile per altri scopi. Fino ad oggi, tuttavia, il reimpiego del calore di scarto è risultato troppo costoso, ad esempio perché i possibili utilizzatori raramente si trovano nelle immediate vicinanze del sito. Inoltre, il calore generato dai sistemi di raffreddamento ad aria per le Infrastrutture IT è disponibile a una temperatura prossima ai 40 gradi Celsius, temperatura decisamente troppo bassa per consentire il recupero e il reimpiego dell'energia termica in modo economicamente vantaggioso.


Soprattutto in ambito High Performance Computing (HPC), i rack IT generano elevati carichi termici, spesso superiori a 50 kW. Per l'HPC il raffreddamento diretto ad acqua delle CPU è molto più efficiente del raffreddamento ad aria. Il cooling diretto rende disponibili temperature di ritorno dell'acqua di raffreddamento comprese tra 60 a 65 gradi. A queste temperature è possibile, ad esempio, produrre acqua calda sanitaria, utilizzare pompe di calore o alimentare una rete di teleriscaldamento. Tuttavia, i CIO dovrebbero tenere presente che anche con il raffreddamento a liquido diretto delle CPU, solo l'80% circa del calore di scarto può essere rimosso da un rack IT. Per il restante 20%, è ancora necessario il raffreddamento IT per rack.


Al Digital Summit 2019 promosso dal governo tedesco, il tema del recupero del calore è stato discusso nel relativo gruppo di lavoro che ha individuato un'elevata necessità di intervento Per questo motivo, Rittal ipotizza che nel 2020 un numero significativamente maggiore di CIO sarà interessato al tema di come il calore di scarto dei data center, precedentemente inutilizzato, possa essere utilizzato in modo economico.


Trend n. 4: Integrazione di ambienti multi-cloud


Le aziende devono essere sicure di poter eseguire le proprie applicazioni in cloud su piattaforme utilizzabili in qualsiasi paese. Per questo è necessaria una strategia di gestione multicloud. Dal punto di vista del management, si tratta di una decisione strategica basata sulla consapevolezza che la propria organizzazione si evolverà in un'azienda completamente digitalizzata.


Un'eccellente User Experience può essere garantita, ad esempio, minimizzando i ritardi nella risposta da zone specifiche («Availability Zone»). Ciò significa che le aziende devono scegliere, per i loro servizi, una o più zone di disponibilità in tutto il mondo in funzione delle loro esigenze di business. La conformità con i severi requisiti di protezione dei dati può essere garantita, ad esempio, utilizzando un fornitore locale specializzato nel rispettivo mercato di destinazione. Una strategia multi-cloud open-vendor consente esattamente questo: combinare in modo significativo la densità funzionale e la scalabilità degli hyperscaler con la sicurezza dei dati di provider locali e specializzati come Innovo Cloud. Con la semplice pressione di un pulsante, su una dashboard, con una persona di contatto, una fattura e nel momento in cui viene presa la decisione aziendale:


questo rende le strategie multi-cloud uno dei megatrend dei prossimi anni. Questo perché la comunità aziendale farà ulteriori passi nella trasformazione digitale, utilizzando tecnologie cloud-native – applicazioni progettate e sviluppate per l'architettura di cloud computing – per aumentare ulteriormente la velocità delle proprie pipeline di Continuous Integration (CI) e Continuous Delivery (CD). L'automazione dei processi di integrazione e delivery consentirà quindi l'implementazione rapida, affidabile e ripetibile dei software («deployments»).