data center

I 9 trend dell’IT nei prossimi mesi, secondo Gartner: tra edge computing, cloud, e Io by luca nogara

Gartner ha riassunto quali saranno le principali tendenze IT del 2017. Anche se non si tratta di argomenti del tutto nuovi, sarà la loro evoluzione ad avere un impatto significativo sui team IT e sui carichi di lavoro dei data center. La governance sarà in mano a 5 professionisti chiave

fonte: digital4.biz - puoi leggere l'articolo originale qui 

Data center interconnessi, invisibili, containerizzati, capaci di orchestrare l'evoluzione di una Internet of Things pervasiva. La governance sarà in mano a nuove figure chiave, sempre più specializzate nei vari cluster di pertinenza che caratterizzano lo sviluppo dei data center di domani, incentrati su chiavi di servizio sempre più sofisticate e performanti.

Quali sono le  tendenze che continueranno a definire il ruolo dei professionisti IT e le competenze che questi ultimi dovranno avere per gestire i data center del prossimo futuro?

Se ne è parlato ad Orlando lo scorso mese, in occasione dell'IT Operations Strategies and Solutions Summit di Gartner. Gli esperti hanno analizzato i top trend del 2017 in ambito IT per far luce su quali saranno gli elementi che avranno un impatto maggiore sugli operatori del settore.

1) I data center tradizionali scompariranno

I tradizionali data center on premise stanno diminuendo di giorno in giorno. Il motivo? Le leggi di mercato. Per le aziende oggi esistono delle alternative più efficienti ed economicamente convenienti. Gli analisti di Gartner hanno rilevato che oggi circa l'80% dei carichi di lavoro aziendali si esegue on premise e il restante 20% si trova sul cloud o su impianti esternalizzati, mentre entro il 2021 la percentuale dei workload eseguiti localmente scenderà a circa il 20-25%, a tutto vantaggio delle soluzioni cloud e off-premise. Il concetto di data center as a service (DCaaS) ha guadagnato terreno poiché le imprese hanno spostato il proprio focus dall’infrastruttura alle applicazioni. Ma la scelta di cloud, outsourcing, SaaS, PaaS, risorse umane as a service e DCaaS non sono proposte poi così estreme. Gli esperti ritengono che un solo delivery model probabilmente non supporterà tutte le esigenze di un'organizzazione e che gli operatori, probabilmente, dovranno utilizzare diversi modelli per raggiungere diversi obiettivi.

2) I data center saranno interconnessi

La connettività è un elemento caratteristico della moderna tecnologia dei data center, ma la crescita del cloud e di altri servizi off-premise la metterà ancora più al centro dei processi operativi, utilizzando i collegamenti in fibra per la connettività ad alta velocità e di lunga distanza.

Secondo gli esperti, le interconnessioni future fonderanno data center e risorse in modo molto simile alle reti peer-to-peer. Questo metterà le prestazioni e la resilienza della connettività dei provider di cloud e software-as-a-service alla pari con le risorse  di calcolo e archiviazione  private on-premises, oltre a offrire flessibilità e agilità su scala più vasta.

3) I container cambieranno le applicazioni

I container continuano a essere una delle principali tendenze dell’IT aziendale. Questo perché consentono nuove forme di sviluppo e implementazione delle applicazioni che non sarebbero possibili persino con centri dati virtualizzati.

Mentre questo scenario rappresenta un terreno fertile per gli sviluppatori, ai professionisti IT richiede di implementare e supportare i container, oltre ad affrontare nuovi problemi di gestione relativi al loro utilizzo, come governance, licenza software e così via. Gli esperti evidenziano che per creare, monitorare, gestire e distruggere i container gli operatori devono garantire un'infrastruttura solida, organizzando e monitorando tutte le risorse utilizzate per farli funzionare.

 

4) L’IT, se saprà innovarsi, guiderà il business

I leader aziendali comprendono il ruolo svolto dai servizi IT in azienda e la loro importanza per il successo del business, ma gli analisti sottolineano come l’era dell’ IT in-house che dà ordini su applicazioni, servizi e tecnologie utilizzate dalle unità di business sia terminata. La rapida crescita del cloud pubblico, del SaaS e di altri servizi concorrenziali ha posto sulla difensiva i modelli IT  tradizionali: non c'è più bisogno di aspettare che l’IT possa valutare, raccomandare o distribuire servizi e carichi di lavoro quando esistono opzioni efficaci che possono essere impegnate più velocemente e con meno problemi nelle line of business.

Gartner fa notare come oltre il 20% della spesa IT aziendale, attualmente, sia  fuori dal controllo IT e come ciò rappresenti una sfida per l’IT che deve sapersi innovare e ripensare il suo ruolo di abilitatore di servizi e broker.

5) La stranded capacity dovrà essere identificata e ridotta

Il concetto di stranded capacity non è certo una novità, ma la velocità e l’agilità dai moderni modelli di calcolo rendono i problemi di sprawl molto più pronunciati e potenzialmente costosi. Gli analisti di Gartner hanno riferito che il 22% delle istanze di calcolo oggi sono invisibili, ovvero sono istanze che eseguono e consumano risorse, ma non forniscono alcun valore all'attività. Il 40% dei rack non è adeguatamente approvvigionato e i server eseguono solo il 32%. Tutto questo si traduce in sprechi di risorse, ovvero in costi inutili per l’organizzazione.

6) Internet of Things in emersione

L'internet delle cose è diventato rapidamente uno dei trend principali in ambito IT, grazie alla sua capacità di sfruttare enormi quantità di dati in opportunità mai viste prima sia per le vendite, il controllo e l'analisi dei processi. I dispositivi IoT possono velocizzare i tempi di vendita con funzionalità predefinite, elevata scalabilità, supporto per i fornitori e un ecosistema di fornitori abbastanza completo. Nonostante ciò, gli esperti notano che i dispositivi reali e gli stack di software utilizzati nelle distribuzioni IoT sono ancora in fase di definizione e che il settore soffre ancora della mancanza di uno standard.

7) I dispositivi remoti devono essere gestiti

L’Internet of Things richiede che i team IT gestiscano anche  i dispositivi remoti - le cose dell’internet, appunto!  - e ciò rappresenta una sfida logistica non da poco: significa occuparsi di installare, configurare, gestire, sostituire o ritirare ogni dispositivo remoto presente nell'ambiente.

8) Micro ed edge computing meritano attenzione

Invece di investire in una larghezza di banda di rete più costosa, molte organizzazioni impiegano risorse di calcolo su piccola scala e risorse di archiviazione più vicine alla posizione del lavoro effettivo: questa strategia è conosciuta come edge computing. Tuttavia, tali sforzi di elaborazione remota o pongono di fronte ai responsabili IT altri tipi di problemi, come la resilienza e la manutenzione. Le aziende devono pertanto considerare con attenzione i requisiti e le vulnerabilità di una piattaforma di calcolo remoto.

9) Guardare avanti verso i nuovi ruoli dell’IT: le 5 figure chiave della governance

Queste tendenze e la mutevole relazione tra business e IT hanno generato nuovi ruoli nel settore.

  1. Secondo gli esperti, per esempio, l’architetto dell’Internet of Things sarà colui il quale selezionerà e implementerà i componenti di un sistema IoT per garantire una corretta gestione e integrazione con altre infrastrutture e software di data center.
  2. Il cloud sprawl specialist, invece, monitorerà l'utilizzo delle risorse nel cloud pubblico e privato e applicherà politiche rivolte a ridurre al minimo gli sprechi. Lo strategy architect sarà la figura che esaminerà le infrastrutture esistenti e fornirà indicazioni per ottimizzarle, individuando le tecnologie necessarie per conseguire gli obiettivi aziendali.
  3. Uno specialista di capacità e risorse, invece, si occuperà di analizzare le risorse per il business con il fine di individuare, ove possibile, alternative a costi più accessibili.
  4. Gli esperti ritengono che alla figura del broker and provider specialist, invece, verrà demandato il compito di identificare i migliori servizi di business tra quelli offerti dalla gran quantità di potenziali fornitori per guidare l'azienda verso l’impiego di servizi convenienti capaci di integrarsi con altre piattaforme di business.
  5. Infine, un esperto di performance ed end-to-end si occuperà di application performance management per garantire che i carichi di lavoro operino con la massima efficienza e la soddisfazione degli utenti.

Data center in Italia? L'83% è in house, ma risorse e infrastrutture non sono più adeguate al business by luca nogara

Data center aziendali indispensabili ma anche concettualmente obsoleti. Lo staff IT occupa più tempo a gestire i contratti con i fornitori che a occuparsi dello sviluppo e della programmazione. Il cloud piace e interessa, ma c'è ancora molta paura per la business continuity. Tutti i numeri in una survey firmata NetworkDigital360

fonte: digital4.biz - puoi leggere l'articolo originale qui

Data center in Italia come cardine del business ma anche come asset sempre più critico. I dati parlano chiaro: a fronte di nuovi modelli tecnologici incentrati sul cloud e sulle logiche dell'As a Service e del Pay Per use, 8 aziende su 10 (83%) nel nostro Paese hanno ancora un data center in house, l'85% delle imprese ha bisogno di far evolvere l'infrastruttura IT in una chiave di maggiore razionalizzazione e agilità, quasi 7 aziende su dieci (69%) hanno uno staff sottodimensionato rispetto alle esigenze e ai compiti associati alla governance. 

lI vero problema dei data center in Italia, infatti, sono infrastrutture aziendali che non hanno seguito un modello di sviluppo programmato e oggi sono il risultato di una crescita molto più addizionale che strategica. Questo è il motivo per cui tutte le aziende confermano di avere necessità di cambiare, in un'ottica di forte rinnovamento delle macchine ma anche delle modalità di gestione dei servizi.

A rivelarlo una survey condotta da NetworkDigital360, in collaborazione con Dimension Data, su un campione di 280 aziende italiane di medie dimensioni (superiori a 250 dipendenti), operanti in vari settori industriali dal manufacturing (65%) al finance (10%), dal retail  (20%) al chimico-farmaceutico (4%).

Data center in Italia: voglia di evoluzione per quasi 9 aziende su 10

Gli analisti hanno sottolineato come per quasi nove aziende su 10 (85%) il motivo principale che sta spingendo la direzione a revisionare le infrastrutture ICT esistenti sia la volontà di razionalizzare un installato eterogeneo, costituito da sistemi legacy e nuove soluzioni che progressivamente sono entrate in azienda per rispondere rapidamente alla domanda delle diverse LOB che richiedono maggiore agilità e una velocità di servizio crescente. Il resto delle risposte fotografa segnali di evoluzione e di cambiamento in relazione allo sviluppo del business. La reingegnerizzazione dei data center italiani, infatti, è funzionale alla crescita dell'organizzazione interna (22%), ad acquisizioni/merge e dismissioni di rami d'impresa (15%), all'apertura di nuove filiali (12%), all'apertura di nuove business unit (10%) e all'internazionalizzazione legata a delocalizzazione o apertura di sedi estere (6%). Solo l'11% delle imprese dichiara di aver bisogno di rinovare le proprie infrastrutture per adeguarle alla compliance normativa.

 

Per più di 8 aziende su 10 il data center non è un servizio ma una proprietà

La volontà di sviluppare i servizi richiesti nel più rapido tempo possibile per garantire il time to market aziendale oggi spinge le imprese a rivedere la propria regia informatica. L’obbiettivo? Presidiare la governance integrando applicazioni e sistemi secondo criteri di centralizzazione e omogeneizzazione più efficaci e con economie più lungimiranti e sostenibili. La ricerca ha messo in luce ulteriori aspetti che aiutano a capire quali sono i limiti di un approccio più evoluto: l’83% delle imprese italiane considera ancora il data center come un bene, ovvero un asset rigorosamente proprietario. Meno di 1 azienda su 10 (8%) ha terziarizzato la complessità del data center affidandola a un provider specializzato e meno di 1 azienda su 10 (9%)  ha spostato il proprio approccio da un concetto di possesso a un concetto di puro servizio affidando a un cloud provider la gestione in toto delle proprie infrastrutture ICT. 

 

Grande interesse per il cloud

Alla domanda “Valutando la possibilità di una migrazione delle vostre infrastrutture in cloud, quali delle seguenti opzioni terreste più in considerazione?” gli analisti hanno registrato come il 35% delle aziende sia più propensa a scegliere un modello ibrido, il 33% un modello di cloud privato e il 20% un modello di cloud pubblico. 8 aziende su 10 scelgono la virtualizzazione mentre solo due aziende su 10 affermano di non essere minimamente interessate a spostare sulla nuvola le proprie infrastrutture, mentre un’azienda su dieci confessa di non aver ancora preso posizione. In realtà l'indagine evidenzia come ci siano ancora moltissimi freni rispetto all'uso più intensivo e strategico della nuvola. 

 

L’orientamento delle risposte suggerisce che le imprese italiane nutrono ancora diverse riserve nell’affidare la gestione delle proprie infrastrutture completamente all’esterno del tradizionale aziendale. Le risposte, in vario modo, sono quasi tutte legate al timore di interrompere la business continuity. Al primo posto delle criticità per quasi 6 aziende su 10 c’è la paura di intaccare la sicurezza aziendale (59%) seguita, praticamente a pari merito (58%), dalla scarsa fiducia rispetto alle garanzie di una connettività tale da garantire la business continuity erogata in cloud. La terza criticità, in ordine di spiegazione, è comunque correlata allo stesso tema: il timore di un’interruzione rispetto alla continuità operativa, indicata da quasi 5 aziende su 10 (49%). Per il 36% delle imprese la migrazione sulla nuvola delle proprie infrastrutture è frenata da problemi associati alla compliance, a pari merito con motivazioni legate alla paura di vedere aumentare i costi dell’As a Service. Per due aziende su 10 (20%), invece, il cloud è inaccessibile perché le infrastrutture sono troppo obsolete per consentire una gestione on demand.

Staff IT sempre più ...staffati. La risposta è nell'outsourcing

Al di là delle criticità legate alla gestione di server, storage e infrastrutture di rete fisiche e virtuali la survey ha messo in luce una grossa una grossa crisi interna allo staff ICT: quasi 7 aziende su dieci (69%) dichiara di essere sottodimensionato ma il 31% ha ovviato al problema grazie a risorse in outosurcing. La governance è ripartita tra chi si occupa di demand management (73%) che raccoglie informazioni dal business e le traduce in requisiti IT, una parte del personale (70%) che a causa della sempre più rapida obsoloscenza tecnologica dell’hardware e del software si occupa di gestire contratti diversificati con una molteplicità di fornitori per upgrade ed evolutive, personale prettamente tecnico e dedito allo sviluppo e alla programmazione (67%). A fronte di un 45% di aziende che non pensa di intervenire su un potenziamento dello staff IT, più di 3 aziende su 10 (33%) afferma che ricorrerà all'outsourcing mentre 1 azienda su 10 sta formando il proprio personale e 1 azienda su 10 provvederà al gap attraverso nuove assunzioni.

 

 

Governance delle infrastrutture nell'era omnicanale e gestione del rischio by luca nogara

Nella gestione delle prestazioni di rete dirigere l'orchestra tecnologica costituita da una molteplicità di prodotti fissi e mobili e una gamma infinita di applicazioni sembra diventata una missione impossibile. Secondo Accenture, il 70% delle aziende conferma come la cybersecurity impatti sulla governance imponendo nuovi modelli di gestione. Quali i trend e quali linee guida seguire?

fonte: digital4.biz - trovi l'articolo originale qui

Governance delle infrastrutture nell'era omnicanale significa saper lavorare sulle architetture di rete con una visione estremamente allargata e dinamica rispetto alle soluzioni da innestare e presidiare. Garantire la massima continuità operativa rimane un fondamentale. Come riuscirci è tutto un altro discorso.

Il tema è duplice. Da un lato bisogna continuare a gestire i processi, interpretando i protocolli associati a una molteplicità di livelli per agganciare e far funzionare soluzioni, aprendo nuovi canali di comunicazione finalizzati ad abilitare tutti i nuovi servizi richiesti dalle LoB che, ormai, hanno capito che non c'è business senza una strategia omnicanale. Dall'altro bisogna continuare a garantire la business continuity che, con l'evolversi delle tecnologie di ultima generazione, ormai tende a rientrare in quel macrocapitolo chiamato Cybersecurity. Secondo una ricerca condotta da Accenture, ad esempio, 7 aziende su 10 confermano come la cybersecurity impatti sulla governance imponendo nuovi modelli di gestione.

Il problema è collettivo: gli analisti hanno infatti evidenziato come, nel mondo, le organizzazioni nel 2015 abbiano  speso 84 miliardi di dollari sulla sicurezza e da qui ai prossimi quattro anni la cifra lieviterà a quota 125 miliardi. Sono un sacco di soldi, è vero, ma i costi che le aziende dovranno sostenere entro il 2030 in seguito ai cyberattacchi  sono stimati da Accenture nell'ordine dei 90 miliardi di dollari.

Governance delle infrastrutture nell'era omnicanale, distribuita anzi troppo distribuita

Che si tratti di abilitare un nuovo server, avviare un servizio di streaming, includere tra gli accessi alla rete i dispositivi mobili non solo dei dipendenti ma anche degli ospiti o implementare qualsiasi altro touch point che la Internet of Things ha reso più smart (dal sistema di videoconferenza all'e-board, dal chiosco interattivo in reception al tavolo intelligente in show-room), la governance deve cosiderare sempre e comunque che la connettività alla rete porta con se nuovi margini di rischio che vanno analizzati, capiti, prioritizzati e gestiti.

Dall'azienda estesa all'azienda distribuita tra le decine di utenti che lavorano da cellulare, da tablet, da pc portatile ma anche da tutta una serie di dispositivi associati a una Collaboration supportata da tutte le derive tecnologiche della Unifiend Communication significa prevedere una quantità di software di riferimento inenarrabile. Il tutto considerando come il cloud abbia cambiato ulteriormente gli equilibri, spostando una parte delle infrastrutture nell'etereo universo dell'As a Service.

Il problema, spesso, è che nelle aziende le figure di riferimento per gestire i servizi sono diverse. Il CIO è spesso un senior cablato nella gestione dei fornitori e del suo staff IT mentre il network manager, che conosce la rete come le sue tasche difficilmente si occupa di Security, dal momento che questa è stata associata anche alla gestione della proprietà dei dati, della proprietà intellettuale, della Privacy, della Compliance e di tutta un'altra serie di task che sono stati spostati su altre figure professionali. Il risultato è che ognuno fa il suo ma le architetture di rete continuano a crescere in maniera discontinua e pericolosa. Serve una centralizzazione delle attività e serve un sistema di supervisione condiviso tra i manager che aiuti l'azienda a capire in fretta cosa sta succedendo e perchè, al di là di tutti gli strumenti di controllo puntuali di cui è stata costellata l'infrastruttura.

 

Per gestire prodotti multipli e tutto il profluvio di applicazioni oggi le aziende inziano a utilizzare nuove piattaforme che, attraverso un unico cruscotto centralizzato, consentono di presidiare le reti e di rilasciare servizi in tempo reale. L'obbiettivo? Gestire le infrastrutture a 360 gradi. 

Ieri architetture di rete. Oggi ecosistemi estesi

«Le architetture dei data center - ha spiegato Stefano Mainetti, Responsabile Scientifico Osservatorio Cloud & ICT As a Service della School of Management del Politecnico di Milano - si stanno muovendo da soluzioni on-premise basate su server fisici (o blade server) in cui servivano skills specifici (tipicamente skills sistemistici) verso soluzioni più semplici da gestire in cui l’hardware sottostante è sempre più nascosto e gestito esternamente. Questo aumenta da un lato le performance e l’affidabilità delle infrastrutture (si pensi alle capacità di investimento che hanno i provider nei confronti dei loro data center) e dall’altro il livello di scalabilità (che non si poteva ottenere prima con le soluzioni on-premise basate su sistemi fisici). Il punto di arrivo è il software defined data center che, attraverso meccanismi di integrazione, può dare vita ad architetture ibride capaci di accedere dinamicamente a ulteriori risorse computazionali, come il cloud pubblico. Operativamente, si parla quindi di un modello architetturale basato sulla condivisione di risorse, che supera il concetto tradizionale di silos e si muove verso un data center programmabile come un software. Alle aziende, dunque, sono richieste nuove vision e una nuova governance». 

In ambito industriale, soprattutto, i mondi IT e OT convergeranno su una soluzione interclouding e la differenza la farà la flessibilità e interoperabilità di quanto disponibile, da cui la strategicità dei partner tecnologici con i quali si andrà a collaborare su tutti i livelli dei processi aziendali. Questo comporterà una revisione profonda a livello di organizzazione, ruoli e responsabilità rispetto alle figure IT e OT oggi presenti in azienda. 

Le indicazioni degli esperti? Abbandonare il concetto di architettura e sposare quello di ecosistema esteso, che cambia e cresce costantemente. Solo in questo modo le organizzazioni potranno essere in grado di adattarsi e riallinearsi per proteggere la propria continuità operativa avendo ben chiare le priorità aziendali secondo una nuova logica evolutiva.

Secondo Accenture, con un'economia digitale in rapida espansione, molte organizzazioni dovrebbero valutare più seriamente le falle che potrebbero crearsi nelle proprie infrastrutture di rete, soprattutto considerando come ormai la sicurezza sia partizionata tra più partner a cui è stata terziarizzata la complessità. 

Un suggerimento importante degli analisti alle aziende è di non dare più per assodato quanto si è costruito: ogni giorno arrivano nuove istanze e nuove tecnologie, nuove minacce e nuove soluzioni da analizzare, portare in azienda, interfacciare e integrare, controllare, aggiornare, proteggere, insomma gestire. La Governance 4.0 va rifondata su un concetto di massima trasparenza informatica, non su un addizione di strumenti diversi: è ora di razionalizzare e passare a piattaforme di controllo capaci di gestire in modalità convergente l'eterogeneità di sistemi e applicazioni in modo dinamico e cybersicuro.