Sistemi Informativi

Data Protection: la valutazione di impatto prevista dal GDPR by luca nogara

Dal 25 maggio 2018, giorno di applicazione del nuovo regolamento UE sulla privacy, per la corretta gestione del trattamento e della sicurezza dei dati personali vanno valutati i rischi delle violazioni e le possibili conseguenze. Ecco cosa prevede il testo, appena approvato in via definitiva, relativo Data protection impact assessment” (DPIA)

fonte:  digital4.biz  . l'articolo originale  qui

fonte: digital4.biz . l'articolo originale qui

La data protection impact assessment (DPIA), la valutazione d’impatto in caso di violazione della Data Protection, è stata definita da Gruppo di Lavoro del GDPR (WP29) lo scorso 4 ottobre 2017 (qui il testo definitivo doc. WP248rev.01). Come ben noto agli “addetti ai lavori”, dal 25 maggio 2018, giorno di applicazione del GDPR, il Regolamento UE sulla data protection n. 2016/679, la corretta gestione del trattamento e della sicurezza dei dati personali dovrà tenere conto della DPIA.

Cos'è la Data protection impact assessment (DPIA) e quando è obbligatoria

Premettiamo sin da subito come la DPIA altro non sia che una valutazione preliminare degli impatti a cui andrebbe incontro un trattamento laddove dovessero essere violate le misure di protezione dei dati. Tale valutazione deve tenere in conto sia del grado di rischio che il trattamento possa presentare per i diritti e le libertà delle persone fisiche sia del grado di innovatività della tecnologia con cui viene effettuato il trattamento. In tal senso, una corretta DPIA, così come ribadito dal Gruppo di Lavoro, può essere utile per valutare l’impatto sulla protezione dei dati elaborati attraverso una particolare tecnologia, ad esempio una componente hardware o software.

Inoltre così come sottolineato dalle recenti Linee Guida nonché dal Garante per la Protezione dei Dati personali nella Guida all’applicazione del Regolamento europeo), una singola DPIA potrebbe essere utilizzata per valutare molteplici operazioni di trattamento che sono simili in termini di rischi presentati. Pertanto, compito del Titolare del Trattamento, utilizzando un “risk-based approach”, sarà quello (prima che i dati vengano trattati) di individuare, nello specifico, l’origine, la natura, la probabilità e la gravità del rischio, l’ambito di applicazione, il contesto e le finalità del trattamento stesso in quanto più è elevata la rischiosità del dato, più alte sono le conseguenze in termini d’impatto con l’interessato.

 

Ciò può consentire al Titolare, mediante anche la consultazione del Data Protection Officere dei responsabili del trattamento, di poter identificare le misure appropriate per minimizzare i rischi ed adottare costantemente (tenuto conto dello stato dell’arte) ogni misura tecnica, giuridica ed organizzativa in quanto una semplice variabilità del rischio potrebbe generare ulteriori attività da svolgere.

Le Linee Guida offrono ulteriori precisazioni tra cui, a titolo esemplificativo: un elenco di operazioni di trattamento di dati personali rispetto alle quali l’effettuazione della valutazioned’impatto deve ritenersi obbligatoria nonché un elenco di operazioni di trattamento rispetto alle quali la valutazione d’impatto non è necessaria; criteri comuni aventi ad oggetto sia la metodologia da adottare per l’effettuazione della valutazione d’impatto sia la definizione dei casi in cui è necessario consultare l’Autorità di controllo; raccomandazioni sulla base dell’esperienza acquisita negli Stati membri dell’UE.

 

GDPR: cosa c’è da sapere sulla profilazione di clienti e consumatori by luca nogara

25 maggio 2018 trattamento dei dati personali siti webdevono essere the eu stati membri gdpr general data protection regulation pubbliche amministrazionigenerale sulla protezione unione europea data breach propri dati personali by design tratta di dati partire dal 25 maggioviolazione dei dati titolare del trattamento regolamento ue 2016/679 sicurezza dei dat regolamento gdpr

Read More

Come e perché la trasformazione digitale impone una nuova cultura aziendale di sicurezza by luca nogara

Per Gartner entro 3 anni il 95% degli attacchi sarà colpa dei comportamenti sbagliati degli utenti. Il costo? Nel caso del furto di dati sensibili, la sanzione amministrativa oggi va da 10mila a 120mila euro. Bissel (Accenture): occorre un approccio specifico per ogni settore che tuteli l’intera catena del valore. Bechelli (Clusit): il digitale impone una comprensione più ampia dei vantaggi, ma anche dei rischi del cyberspazio

fonte:  digital4.biz  . l'articolo originale  qui

fonte: digital4.biz . l'articolo originale qui

 

La trasformazione digitale offre un livello di comunicazione e di interazione che non ha precedenti nella storia. Il fenomeno dell'omnicanalità riguarda le 6C di un'utenza globale: Colleghi, Collaboratori, Competitor, Clienti, Cittadini e Consumatori... Gran parte della popolazione oggi è connessa: smartphone-dotata, ma anche tablet-dotata e pc-dotata. La consumerizzazione dell'IT ha portato i dipendenti a utilizzare con disinvoltura schermi touchscreen e menu di navigazione. Crescono le installazioni interattive: totem, chioschi, tavoli, specchi, pareti portano a bordo una nuova intelligenza applicativa. Tutto questo senza corsi di formazione aziendale perché a vincere è un passaparola bimodale (off line e online). 

L'abitudine a utilizzare Internet in tutte le sue forme ha inaugurato l'economia delle App, favorendo anche una più immediata comprensione dei vantaggi associati al cloud. Con tutte le conseguenze annesse e connesse.

Secondo Gartner da qui al 2020 il 95% degli attacchi alla sicurezza sarà colpa dei comportamenti sbagliati degli utenti (Fonte: Gartner Top Prediction for IT Organizations and Users for 2016 and Beyond). Gli analisti puntano l'attenzione sull'ingenuità delle persone che, deviate dai vantaggi e dalla semplicità delle tecnologie, non si rendono conto dei rischi e nemmeno conoscono le regole base della sicurezza rispetto alla gestione delle identità e degli accessi. Dal furti di dati alla paralisi dell'attività, lo scotto da pagare è ormai noto e dovrebbe far riflettere l'intero board aziendale.

Prendiamo il caso di un’organizzazione che in Italia subisca un attacco informatico da parte di alcuni hacker che riescono ad accedere ai dati sensibili e a diffonderli via web. Al momento, se gli interessati fanno ricorso al Garante della Privacy e si scopre che il titolare del trattamento (l’azienda) non aveva adottato le misure minime di sicurezza per la protezione dei dati, prescritte all’art. 33 del Codice della Privacy (CDP), la sanzione amministrativa va da un minimo di 10.000 euro a un massimo di 120.000 euro, comminati dal Garante e senza passare dall’autorità giudiziaria, ex art. 162 c. 2-bis CDP. In sede di giudizio penale la sanzione va a sommarsi  all'Ex art. 169 CDP per cui è previsto l’arresto fino a 2 anni (a questo link, la tabella di dettaglio)

Ma le aziende sanno quanto costa il cybercrime?

Quanto costa il cybercrime alle aziende? Gli analisti parlano di 11,7 milioni di dollari per azienda, con un aumento del 23% rispetto ai 9,5 milioni di dollari registrati nel 2016 e del 62% nell’ultimo quinquennio (Fonte: “Cost of Cyber Crime Study” - Accenture e Ponemon Institute, Settembre 2017). In media un’azienda subisce 130 violazioni all’anno (+ 27,4% rispetto al 2016) che si traducono in infiltrazioni nella rete o nei sistemi aziendali.

Kelly Bissell, Managing Director di Accenture Security"È necessario che le organizzazioni adottino una strategia di sicurezza dinamica e agile - afferma Kelly Bissell, Managing Director di Accenture Security -, che costruisca resilienza dall’interno e non si focalizzi sulla difesa del perimetro. Occorre inoltre un approccio che sia specifico per ciascun settore e che tuteli l’intera catena del valore dell’azienda. Le conseguenze del cybercrime che le aziende subiscono a causa dei crimini informatici sono sempre più costose e devastanti, sottolineando l’importanza crescente di una pianificazione strategica e di un monitoraggio costante degli investimenti in sicurezza”.

Riportata ai suoi fondamentali, la questione è semplice: la gestione della sicurezza associata alla trasformazione digitale oggi non può essere più scaricata solo sui CIO o sui CISO che, facendo conto dei budget messi a loro disposizione, fanno miracoli per garantire la business continuity, la tutela dei dati e la protezione delle risorse aziendali.

Serve una consapevolezza più ampia e funzionale di cosa significhi risk management nell'era della trasformazione digitale, della Web Economy, delle aziende liquide e di tutti quegli orizzonti di servizio in continuo divenire che portano più fatturato ma anche più margini di rischio. È ora di lavorare a livello utente, offrendo un po' più di cultura ma anche soluzioni più puntuali in caso di perdite di dati e di fermi informatici. Serve maggiore consapevolezza a tutti i livelli dell'organizzazione.

Quando il cloud è l'abilitatore della trasformazione digitale

Luca BechelliLa questione è che non c'è trasformazione digitale senza una governance delle infrastrutture e dei servizi. L'uso del cloud, ad esempio, cresce perché economicamente più comodo, ma quasi 7 aziende su 10 nutrono ancora molte riserve. Secondo l'Osservatorio Cloud e ICT as A Service del Politecnico di Milano il 67% delle imprese indica come principale fattore di inibizione la sicurezza e la privacy.

Eppure la sicurezza viene ancora considerata una componente addizionale perché le aziende seguono ancora un approccio banalmente costruttivo: prima creo l'infrastruttura e dopo penso alla sicurezza. Questa protezione non nativa, però, ha un impatto notevole sulle aziende.

"L’Italia è uno dei Paesi in cui c’è una percentuale di adozione del cloud tra le più alte in Europa (siamo i secondi tra tutti i Paesi) - spiega Luca Bechelli, Membro del Comitato Tecnico Scientifico, CLUSIT e consulente indipendente per la sicurezza informatica -. Eppure, rispetto al cloud, ci sono ancora molti limiti a livello di vision. Le aziende che ricorrono a servizi cloud, spesso non lo fanno nel modo corretto. A questo si aggiunge il problema dello shadow IT. Quante volte i nostri colleghi, in buona fede, si portano il lavoro a casa inviando una mail d’ufficio sul proprio account privato o caricandosi su un servizio di file sharing il lavoro (magari perché non gli abbiamo fornito un’alternativa aziendale valida per fare questo mestiere)? Da qui le preoccupazioni principali delle aziende: da recenti studi è emerso che il 64% delle aziende sono preoccupate di non sapere dove sono dati importanti, perché hanno perso di vista il modo in cui le informazioni viaggiano. Insomma, lo scenario effettivamente caratterizzato da molti problemi e da un approccio disfunzionale. La questione è che l’attaccante può essere qualcuno che sta a centinaia di km da noi, ma la maggior parte degli attacchi oggi si determina perché l’utente fa click". 

 

Spostare la complessità non significa dimenticare la sicurezza

Vero è che il cloud rende talmente efficiente e facile agli utenti l’uso dei sistemi da fornire la percezione di una riduzione delle complessità e questo si traduce troppo spesso in un'adozione di pratiche povere dal punto di vista della sicurezza. Bisogna invece ricordare che la complessità c’è ancora: è solo stata spostata e l'azienda deve comunque preoccuparsi di gestire la sua parte. 

"Dall’altra parte vediamo che sono importanti le quote di altre tipologie di cloud - ribadisce Bechelli - quindi Software as a Service (SaaS) e Platform as a Service (PaaS), con modalità di servizi centrali per il funzionamento dell’azienda: CRM, ERP, amministrazione, la stessa software automation delle mail che spesso viene sottovalutata e dove si trovano i dati più critici dell’azienda perché per quanto noi pensiamo di metterli all’interno di repository protetti, poi li facciamo comunque circolare nelle varie versioni. Il tema degli endpoint che accedono al cloud non è più solo il pc, ma una serie di dispositivi fissi e mobili che vanno protetti e tutelati perché la sicurezza che potremmo denominare Agile, ancora non esiste. I dati Clusit sulla crescita del cybercrime si commentano da soli".

 

Come evidenzia Bechelli, anche le aziende che non sono in cloud sono ormai di fronte a un bivio: se sono in cloud i suoi partner, ad esempio, un'organizzazione che credeva di non essere in cloud può scoprire di esserlo.

"Dobbiamo capire oggi che la nostra azienda è cambiata - conclude l'esperto -: non ha neanche più senso parlare di azienda mobile, che lo è già per definizione dal momento che i nostri dipendenti hanno un cellulare e, trovando aperta la porta del server di mail, cominciano a scaricare la posta sul proprio device. A quel punto siamo già mobili e dobbiamo pensare in mobilità. La trasformazione digitale è un'evoluzione delle esigenze dei colleghi che vogliono essere mobili, agili e che interagiscono in molti modi con il resto del mondo: non solo dal pc blindato tradizionale, ma anche con altri media che possono essere vulnerabili ad attacchi e possono mettere in crisi l’operatività".

 

Insomma, aggiornare gli antivirus non è più sufficiente. Il board aziendale deve imparare a guardare l'azienda in modo molto diverso, andando ben oltre il tema del GDPR. La normativa che entrerà in vigore a maggio del 2018 ha il merito di aver l'attenzione sul tema della protezione dei dati offrendo l'opportunità di rivedere posizioni e policy, ma non risolve certo la totalità della governance. CFO, CEO, COO... tutti gli executive devono imparare a vivere la trasformazione digitale con una visione della sicurezza non solo più responsabile ma anche più lungimirante.

Come e perché la trasformazione digitale impone una nuova cultura aziendale di sicurezza by luca nogara

Per Gartner entro 3 anni il 95% degli attacchi sarà colpa dei comportamenti sbagliati degli utenti. Il costo? Nel caso del furto di dati sensibili, la sanzione amministrativa oggi va da 10mila a 120mila euro. Bissel (Accenture): occorre un approccio specifico per ogni settore che tuteli l’intera catena del valore. Bechelli (Clusit): il digitale impone una comprensione più ampia dei vantaggi, ma anche dei rischi del cyberspazio

 

fonte:  digital4.biz  . l'articolo originale  qui

fonte: digital4.biz . l'articolo originale qui

 

La trasformazione digitale offre un livello di comunicazione e di interazione che non ha precedenti nella storia. Il fenomeno dell'omnicanalità riguarda le 6C di un'utenza globale: Colleghi, Collaboratori, Competitor, Clienti, Cittadini e Consumatori... Gran parte della popolazione oggi è connessa: smartphone-dotata, ma anche tablet-dotata e pc-dotata. La consumerizzazione dell'IT ha portato i dipendenti a utilizzare con disinvoltura schermi touchscreen e menu di navigazione. Crescono le installazioni interattive: totem, chioschi, tavoli, specchi, pareti portano a bordo una nuova intelligenza applicativa. Tutto questo senza corsi di formazione aziendale perché a vincere è un passaparola bimodale (off line e online). 

L'abitudine a utilizzare Internet in tutte le sue forme ha inaugurato l'economia delle App, favorendo anche una più immediata comprensione dei vantaggi associati al cloud. Con tutte le conseguenze annesse e connesse.

Secondo Gartner da qui al 2020 il 95% degli attacchi alla sicurezza sarà colpa dei comportamenti sbagliati degli utenti (Fonte: Gartner Top Prediction for IT Organizations and Users for 2016 and Beyond). Gli analisti puntano l'attenzione sull'ingenuità delle persone che, deviate dai vantaggi e dalla semplicità delle tecnologie, non si rendono conto dei rischi e nemmeno conoscono le regole base della sicurezza rispetto alla gestione delle identità e degli accessi. Dal furti di dati alla paralisi dell'attività, lo scotto da pagare è ormai noto e dovrebbe far riflettere l'intero board aziendale.

Prendiamo il caso di un’organizzazione che in Italia subisca un attacco informatico da parte di alcuni hacker che riescono ad accedere ai dati sensibili e a diffonderli via web. Al momento, se gli interessati fanno ricorso al Garante della Privacy e si scopre che il titolare del trattamento (l’azienda) non aveva adottato le misure minime di sicurezza per la protezione dei dati, prescritte all’art. 33 del Codice della Privacy (CDP), la sanzione amministrativa va da un minimo di 10.000 euro a un massimo di 120.000 euro, comminati dal Garante e senza passare dall’autorità giudiziaria, ex art. 162 c. 2-bis CDP. In sede di giudizio penale la sanzione va a sommarsi  all'Ex art. 169 CDP per cui è previsto l’arresto fino a 2 anni (a questo link, la tabella di dettaglio)

Ma le aziende sanno quanto costa il cybercrime?

Quanto costa il cybercrime alle aziende? Gli analisti parlano di 11,7 milioni di dollari per azienda, con un aumento del 23% rispetto ai 9,5 milioni di dollari registrati nel 2016 e del 62% nell’ultimo quinquennio (Fonte: “Cost of Cyber Crime Study” - Accenture e Ponemon Institute, Settembre 2017). In media un’azienda subisce 130 violazioni all’anno (+ 27,4% rispetto al 2016) che si traducono in infiltrazioni nella rete o nei sistemi aziendali.

È necessario che le organizzazioni adottino una strategia di sicurezza dinamica e agile - afferma Kelly Bissell, Managing Director di Accenture Security -, che costruisca resilienza dall’interno e non si focalizzi sulla difesa del perimetro. Occorre inoltre un approccio che sia specifico per ciascun settore e che tuteli l’intera catena del valore dell’azienda. Le conseguenze del cybercrime che le aziende subiscono a causa dei crimini informatici sono sempre più costose e devastanti, sottolineando l’importanza crescente di una pianificazione strategica e di un monitoraggio costante degli investimenti in sicurezza”.

Riportata ai suoi fondamentali, la questione è semplice: la gestione della sicurezza associata alla trasformazione digitale oggi non può essere più scaricata solo sui CIO o sui CISO che, facendo conto dei budget messi a loro disposizione, fanno miracoli per garantire la business continuity, la tutela dei dati e la protezione delle risorse aziendali.

Serve una consapevolezza più ampia e funzionale di cosa significhi risk management nell'era della trasformazione digitale, della Web Economy, delle aziende liquide e di tutti quegli orizzonti di servizio in continuo divenire che portano più fatturato ma anche più margini di rischio. È ora di lavorare a livello utente, offrendo un po' più di cultura ma anche soluzioni più puntuali in caso di perdite di dati e di fermi informatici. Serve maggiore consapevolezza a tutti i livelli dell'organizzazione.

Quando il cloud è l'abilitatore della trasformazione digitale

La questione è che non c'è trasformazione digitale senza una governance delle infrastrutture e dei servizi. L'uso del cloud, ad esempio, cresce perché economicamente più comodo, ma quasi 7 aziende su 10 nutrono ancora molte riserve. Secondo l'Osservatorio Cloud e ICT as A Service del Politecnico di Milano il 67% delle imprese indica come principale fattore di inibizione la sicurezza e la privacy.

Eppure la sicurezza viene ancora considerata una componente addizionale perché le aziende seguono ancora un approccio banalmente costruttivo: prima creo l'infrastruttura e dopo penso alla sicurezza. Questa protezione non nativa, però, ha un impatto notevole sulle aziende.

"L’Italia è uno dei Paesi in cui c’è una percentuale di adozione del cloud tra le più alte in Europa (siamo i secondi tra tutti i Paesi) - spiega Luca Bechelli, Membro del Comitato Tecnico Scientifico, CLUSIT e consulente indipendente per la sicurezza informatica -. Eppure, rispetto al cloud, ci sono ancora molti limiti a livello di vision. Le aziende che ricorrono a servizi cloud, spesso non lo fanno nel modo corretto. A questo si aggiunge il problema dello shadow IT. Quante volte i nostri colleghi, in buona fede, si portano il lavoro a casa inviando una mail d’ufficio sul proprio account privato o caricandosi su un servizio di file sharing il lavoro (magari perché non gli abbiamo fornito un’alternativa aziendale valida per fare questo mestiere)? Da qui le preoccupazioni principali delle aziende: da recenti studi è emerso che il 64% delle aziende sono preoccupate di non sapere dove sono dati importanti, perché hanno perso di vista il modo in cui le informazioni viaggiano. Insomma, lo scenario effettivamente caratterizzato da molti problemi e da un approccio disfunzionale. La questione è che l’attaccante può essere qualcuno che sta a centinaia di km da noi, ma la maggior parte degli attacchi oggi si determina perché l’utente fa click". 

 

Spostare la complessità non significa dimenticare la sicurezza

Vero è che il cloud rende talmente efficiente e facile agli utenti l’uso dei sistemi da fornire la percezione di una riduzione delle complessità e questo si traduce troppo spesso in un'adozione di pratiche povere dal punto di vista della sicurezza. Bisogna invece ricordare che la complessità c’è ancora: è solo stata spostata e l'azienda deve comunque preoccuparsi di gestire la sua parte. 

"Dall’altra parte vediamo che sono importanti le quote di altre tipologie di cloud - ribadisce Bechelli - quindi Software as a Service (SaaS) e Platform as a Service (PaaS), con modalità di servizi centrali per il funzionamento dell’azienda: CRM, ERP, amministrazione, la stessa software automation delle mail che spesso viene sottovalutata e dove si trovano i dati più critici dell’azienda perché per quanto noi pensiamo di metterli all’interno di repository protetti, poi li facciamo comunque circolare nelle varie versioni. Il tema degli endpoint che accedono al cloud non è più solo il pc, ma una serie di dispositivi fissi e mobili che vanno protetti e tutelati perché la sicurezza che potremmo denominare Agile, ancora non esiste. I dati Clusit sulla crescita del cybercrime si commentano da soli".

 

Come evidenzia Bechelli, anche le aziende che non sono in cloud sono ormai di fronte a un bivio: se sono in cloud i suoi partner, ad esempio, un'organizzazione che credeva di non essere in cloud può scoprire di esserlo.

"Dobbiamo capire oggi che la nostra azienda è cambiata - conclude l'esperto -: non ha neanche più senso parlare di azienda mobile, che lo è già per definizione dal momento che i nostri dipendenti hanno un cellulare e, trovando aperta la porta del server di mail, cominciano a scaricare la posta sul proprio device. A quel punto siamo già mobili e dobbiamo pensare in mobilità. La trasformazione digitale è un'evoluzione delle esigenze dei colleghi che vogliono essere mobili, agili e che interagiscono in molti modi con il resto del mondo: non solo dal pc blindato tradizionale, ma anche con altri media che possono essere vulnerabili ad attacchi e possono mettere in crisi l’operatività".

 

Insomma, aggiornare gli antivirus non è più sufficiente. Il board aziendale deve imparare a guardare l'azienda in modo molto diverso, andando ben oltre il tema del GDPR. La normativa che entrerà in vigore a maggio del 2018 ha il merito di aver l'attenzione sul tema della protezione dei dati offrendo l'opportunità di rivedere posizioni e policy, ma non risolve certo la totalità della governance. CFO, CEO, COO... tutti gli executive devono imparare a vivere la trasformazione digitale con una visione della sicurezza non solo più responsabile ma anche più lungimirante.

L’innovazione digitale è un gioco di squadra: entrano in campo le Line of Business by luca nogara

La digital transformation è diventata pervasiva e trasversale: nascono progetti strategici in ogni funzione aziendale, da Marketing e Vendite all'HR, fino a Procurement e Supply Chain. Cresce la collaborazione interna, perché la revisione dei processi supera la classica visione organizzativa a silos. È un cambio di passo confermato dalla presenza di budget per l'innovazione al di fuori delle direzioni ICT in oltre un terzo delle grandi imprese italiane

 

fonte:  digital4.biz  . l'articolo originale  qui

fonte: digital4.biz . l'articolo originale qui

 

La trasformazione digitale per moltissime imprese italiane è ormai un piano concreto di attività, progetti e iniziative che coinvolgono tutta l’organizzazione. L'innovazione è diventata pervasiva e ha definitivamente travalicato il confine della direzione ICT, diventando una priorità strategica per le Line of Business.

È un cambio di passo significativo, che abbiamo avuto modo di riscontrare in modo evidente negli ultimi mesipartecipando a convegni e intervistando manager di tante eccellenze italiane, soprattutto nelle grandi aziende e nelle multinazionali (anche quelle “tascabili”) del made in Italy. Tutti confermano che per restare rilevanti sul mercato non solo serve uno sforzo per rivedere prodotti, processi e modelli di business. Serve anche ripensare il concetto stesso di innovazione. Se fino a pochi anni fa erano soltanto i CIO a guidare i progetti che prevedono l’adozione di nuove tecnologie, oggi sono i manager di Line – affiancati dalle direzioni ICT – i principali promotori di iniziative di digitalizzazione e ridisegno dei processi che sono chiamati a governare: è così nel Marketing e nelle vendite, impegnati in progetti omnichannel e per migliorare la customer experience; nelle direzioni HR, chiamate a colmare i gap di competenze digitali o ad adottare nuovi tool di HCM a supporto dei processi; è sempre più vero per i responsabili Procurement e Supply Chain, dove l’uso di piattaforme online B2B garantisce risparmi importanti, trasparenza e velocità.

In questi progetti, tutte le divisioni sono spesso coinvolte in modo collaborativo: la revisione profonda dei processi in chiave digitale e la ricerca di soluzioni innovative che diano slancio alle aziende non possono essere più gestiti nella tradizionale visione a silos, ma richiedono commitment a tutti i livelli apicali, incluso il top management.

 

Ma c’è di più. Si è diffusa con forza la consapevolezza che per fronteggiare giovani e agili concorrenti, società nate in questi ultimi anni con un dna al 100% digitale (una minaccia che spesso arriva da settori anche molto distanti da quello in cui le imprese hanno operato per lungo tempo) serve uno scatto in avanti in termini di cultura, che significa non solo competenze digitali e famigliarità con servizi e tecnologie di nuova generazione, ma anche spirito imprenditoriale, pensiero laterale e creatività. Ora che l’innovazione digitale è diventata trasversale, il concetto stesso di competenze e talenti digitali si va ampliando per coinvolgere ogni livello ed in ogni funzione.

Tante aziende hanno quest’anno avviato in quest'ottica iniziative interdisciplinari, spesso guardando al di fuori del proprio perimetro in un’ottica Open Innovationformazione, Innovation Lab, Contest e Hackathon interni, oltre a nuove relazioni con start up e modelli di governance e sui processi per la gestione dell’Innovazione Digitale. Lo sviluppo di cultura e competenze digitali è inoltre la principale sfida per le Direzioni HRdelle nostre imprese e la quasi totalità dei Responsabili Risorse Umane italiani si è già mossa per adeguare le skills dell’organico aziendale.

La trasformazione organizzativa va di pari passo con gli investimenti in digitale, che ora disegnano una nuova mappa. Lo conferma una recente survey degli Osservatori Digital Innovation, che ha verificato la presenza di interessanti budget per l’Innovazione Digitale, oltre al budget della Direzione ICT, nel 39% delle imprese intervistate, allocati nelle diverse Line of Business e principalmente nelle Direzioni Marketing, Digital e Business Development. Tali budget sono nel 10% dei casi comparabili o superiori a quella della Direzione ICT, in leggero aumento rispetto al dato rilevato nel 2016.

Certo, la strada resta lunga e piena di insidie. L’Italia continua a scontare, a livello di sistema e PA, un ritardo importante rispetto ai paesi più avanzati. Ma il cantiere è aperto e lavora a pieno regime, con il coraggio, l’impegno e la determinazione di tanti innovatori.

Data Management Platform (DMP): cosa sono e come aiutano a raggiungere l'audience giusta by luca nogara

Marketing e comunicazione per poter essere efficaci devono focalizzarsi sempre di più sulla user experience e sulla personalizzazione dei messaggi e dei servizi offerti. È proprio per questo che sta crescendo l’utilizzo delle DMP - Data Management Platform, sistemi che aiutano le aziende a raccogliere e organizzare dati e informazioni relative agli utenti per poterle clusterizzare e analizzare, e ottimizzare così gli investimenti pubblicitari

fonte: digital4.biz - potete leggere l'articolo originale qui

Che i dati siano il pilastro portante delle aziende ormai è inequivocabile e indiscutibile. Ancor più importanti e strategici lo sono per le divisioni Marketing che necessitano di informazioni sempre aggiornate per definire i propri piani di azione, programmare l’acquisto di pubblicità o l’avvio di campagne promozionali o di comunicazione, ecc. 

Secondo quanto emerge dall’Osservatorio Internet Media degli Osservatori Digital Innovation del Politecnico di Milanolo spostamento dal semplice acquisto di spazi per la pubblicità verso la necessità di accedere a specifiche audience rende sempre più critica la raccolta e l’organizzazione di dati e informazioni che permettano di clusterizzare gli utenti per poterne analizzare bisogni e comportamenti e, di conseguenza, personalizzare al meglio le attività di marketing e comunicazione.  

A supporto di questo scenario, si osserva da più analisi un crescente utilizzo delle cosiddette DMP - Data Management Platform. Cosa sono le DMP? Si tratta di soluzioni tecnologiche che possiamo raggruppare in due macro-gruppi:

- quelle di natura più “tattica”, finalizzate all’ottimizzazione degli acquisti di spazi media rivolti a specifiche audience;

- quelle di natura più “strategica” il cui obiettivo è raccogliere dati e informazioni non solo per l’acquisto di spazi pubblicitari ma anche per altre attività di marketing e Crm di taglio più “business oriented”.

Quello delle DMP è un mercato complesso, non solo perché, come accennato, ci sono soluzioni differenti a seconda degli obiettivi che si intende raggiungere, ma anche perché si tratta di piattaforme che, in generale, richiedono un continuo aggiornamento e un vero e proprio cambiamento nella governance aziendale della gestione delle informazioni all’interno delle diverse funzioni/divisioni (senza contare che l’investimento iniziale non è banale). Tuttavia, i modelli cloud incentrati sul Software-as-a-Service hanno contribuito alla diffusione di queste tecnologie, tanto da spingere alcune società di analisi come ExchangeWire Research e Weborama a stimare che, entro il 2018, il 92% di agenzie media, inserzionisti e publisher europei implementerà una DMP (analisi che emerge dall’ultimo report “State of the European Data Management Platform market: media usage already mature, but the evolution is not complete”).  

Il messaggio giusto al momento opportuno al target più corretto: è ciò che vuole chi utilizza una DMP

Il campione europeo preso in esame da ExchangeWire Research e Weborama non può dirsi a valenza statistica (360 i professionisti interpellati in Uk, Francia, Spagna e Italia) ma ha il pregio di tracciare gli orizzonti di un trend che negli ultimi due anni ha registrato crescite interessanti anche nel nostro paese. Le DMP sono considerate tecnologie ormai indispensabili dalle aziende che hanno nella pubblicità una forza di propulsione per il business, ma stanno diventando strumenti strategici anche per attività di marketing e comunicazione più ampie dove il dato su clienti, consumatori, utenti diventa il vero asset.

In quest’ottica, ciò che rivela l’indagine europea è interessante: oltre il 75% di coloro che già utilizzano una DMP crea attraverso questi sistemi nuovi volumi di affari proprio grazie ai dati, o meglio, attraverso le campagne corrette, indirizzate al target giusto al momento opportuno (obiettivo raggiungibile solo attraverso il corretto utilizzo dei dati).

Quali dati raccogliere

Quanto alla tipologia di dati “necessari” al raggiungimento di questi obiettivi, una DMP dovrebbe essere in grado di raccogliere ed integrare qualsiasi tipo di dato ma, stando ai risultati europei dell’indagine condotta lo scorso anno, le aziende tendono a collezionare con più sistemicità quelli provenienti dai comportamenti degli utenti sul web (navigazione di siti e app, per l’87% degli intervistati) integrandoli con quelli già presenti nel proprio CRM (nel 64% dei casi). I dati provenienti dai social network iniziano ad entrare nel bacino di raccolta, integrazione e analisi di una DMP anche se con percentuali più basse (solo il 43% delle aziende prese in esame afferma di utilizzarli); è probabile che ne vedremo la crescita come fonte di alimentazione delle DMP nei prossimi 12 mesi.

Cloud, smart data, competenze digitali: ecco su cosa devono puntare gli studi per ‘fare la differenza’ by luca nogara

Le professioni giuridiche d’impresa stentano a fare propri i nuovi paradigmi di business e organizzativi, mentre le aziende chiedono loro un supporto per ricevere servizi incisivi sul conto economico. Fornire le indicazioni sulle tendenze in atto è l'obiettivo della quarta edizione dell'Osservatorio Professionisti e Innovazione Digitale del Politecnico di Milano

fonte: digital4.biz - potete leggere l'articolo originale qui

Ormai è chiaro che la digitalizzazione non rappresenta più un’opzione di cui avvalersi, ma un obbligo a cui adeguarsi. Nessuno escluso: dalla Pubblica Amministrazione alle imprese fino ai singoli cittadini.

Ciò su cui si può discutere, semmai, è la velocità con cui si realizzerà il passaggio dall’analogico al digitale pervasivo. Le norme, che abbracciano via via nuove aree da digitalizzare, forniscono, comunque, un valido riferimento, soprattutto per il nostro Paese, che stenta ad appropriarsi spontaneamente dell’innovazione, in particolare di quella digitale.

Le professioni giuridiche d’impresa – avvocati, commercialisti e consulenti del lavoro – vicine più di altre al sistema produttivo, stentano, esse stesse, a interiorizzare nuovi paradigmi di business e organizzativi, da trasferire anche a livello culturale alla clientela aziendale. Poco meno di un terzo di questi professionisti rappresenta l’avanguardia che ha saputo cavalcare la tecnologia per proporsi con nuovi servizi ed elevati livelli di efficienza interna nella gestione delle attività tradizionali, sempre più oggetto di una riduzione della marginalità.

Il mondo dell’impresa chiede nuovi apporti alle professioni, che devono sempre più fornire servizi in grado di incidere sul conto economico delle imprese e non solamente far fronte agli obblighi di legge. Pur necessari, questi ultimi, infatti, non aiutano l’imprenditore a pagare gli stipendi dei dipendenti.

 

Il 7 luglio partirà la quarta edizione dell’Osservatorio Professionisti e Innovazione Digitale, proprio con l’intento di fornire nuove indicazioni sulle tendenze in atto tra gli studi professionali. Dopo aver esaminato nelle scorse edizioni lo status quo, individuato i trend evolutivi e segmentato gli studi in relazione ai loro comportamenti, adesso è la volta dei temi che possono aiutare gli studi a ‘fare la differenza’.

Verranno, perciò, presi in esami tre temi principali, con l’intento di rispondere ad alcune precise domande. Innanzitutto il Cloud Computing per cui si cercherà di comprendere quali sono le norme che oggi lo regolano il cloud computing, quali le accortezze da utilizzare con la sua adozione, come cambia l’organizzazione dello studio, quali modelli sono adatti a uno studio professionale, quali sono e quanto valgono i benefici economico-finanziari per uno studio che usa il cloud. Il secondo tema si riferisce a smart data e analytics: la nuova frontiera dei servizi digitali, che supera il concetto fisico del documento ma che si concentra sulla parte importante in esso contenuta: i dati. In particolare sarà oggetto d'analisi cosa significa per uno studio elaborare una strategia basata sugli smart data, quali strumenti occorrono, come individuare i dati smart, quali competenze e che benefici ci si può attendere. Infine c'è l'ambito delle competenze digitali, che punterà l'attenzione su quali competenze occorre sviluppare per gestire flussi di lavoro e l’organizzazione sempre più digitale e su quali sono le competenze utili a poter erogare servizi sempre più digital-based.

Il percorso sarà accompagnato dai sostenitori che da anni credono in questa iniziativa: i consigli nazionali, le loro fondazioni studi, il mondo associativo, i vendor di soluzioni tecnologiche e le aziende di servizi, i professionisti che, sempre più numerosi, ci seguono con interesse e forniscono il loro apporto di ‘vita vissuta’. Oltre ai due eventi finali, alcuni appuntamenti intermedi consentiranno di confrontarsi sui temi della ricerca, incontrare esperti e ascoltare la storia di studi che hanno qualcosa di distintivo da comunicare.

Mobile app aziendali in stallo: si torna ai siti responsive. Gartner spiega perché by luca nogara

Più del 25% delle aziende globali non ha pubblicato mobile app negli ultimi 12 mesi. Tra i motivi spicca la lentezza nello sviluppo, che spinge i manager delle line of business ad "aggirare" il dipartimento IT. Intanto si sentono già gli effetti dell’era post-app: a governare saranno bot, assistenti virtuali e wearable device

fonte: digitl4.biz - potete leggere l'articolo originale qui

Un quarto delle grandi aziende mondiali non ha messo in cantiere mobile app nell'ultimo anno. E le organizzazioni che lo hanno fatto, hanno distribuito una media di otto applicazioni mobili, un dato che è rimasto invariato se confrontato con il 2016. Lo rivela un recente studio firmato da Adrian Leow, research director di Gartner. Guardando alla media delle aziende interpellate (163 gli intervistati tra professionisti IT e business leader di grandi aziende presenti in Usa, Regione Emea, America Latina e area Asia/Pacific), pare che attualmente ci siano poco più di 2 applicazioni ad azienda in fase di sviluppo e circa 6/7 quelle in pianificazione per i prossimi 12 mesi.

Ma non dovevamo entrare nell’era dell’app economy?

“Molti team IT avranno ritardi significativi nel completamento delle fasi di sviluppo delle applicazioni aziendali, aumentando di conseguenza il rischio che le line of business (LOB) aggirino l’IT stesso per ottenere risposte più rapide”, è il primo commento di Leow. “È ormai tempo che questi team ridefiniscano le loro priorità ed estendano il controllo e la pianificazione anche sulle app per dispositivi mobili altrimenti i rischi di erosione dei budget IT e la perdita di valore del dipartimento IT si innalzeranno ulteriormente”.

È finito il tempo delle mobile app native?

Analizzando in dettaglio i numeri relativi alle previsioni delle aziende, “è incoraggiante vedere una crescita significativa del numero di applicazioni mobili che sono ‘in lavorazione’ o previste per i prossimi mesi - commenta Leow - ma è sconfortate notare come la maggior parte della crescita la registreranno applicazioni web fruibili anche da dispositivi mobili (cioè applicazioni web responsive) e non mobile app native. Significa che molte aziende, frustrate dallo sviluppo di app mobili, si stanno rifocalizzando sui siti responsive per rispondere alle esigenze Mobile"

 

Ma c’è un’altra interessante chiave di lettura che emerge dall’indagine di Gartner: il 52% degli intervistati afferma di aver intrapreso percorsi di esplorazione o addirittura adozione di bot, chatbot e assistenti virtuali all’interno dei processi di sviluppo di mobile app, un quadro singolarmente molto innovativo considerando la natura piuttosto giovane di queste tecnologie.

È l’era post-app, ma c’è ancora qualche barriera da superare

Il fenomeno viene “classificato” dalla società di analisi americana come era delle post-appche non va in contrapposizione né sostituisce l’app economy ma caratterizza un nuovo periodo storico dove le app tradizionali - scaricabili da un app store e installate sui device mobili - rappresenteranno solo una parte delle funzionalità e dei servizi che potranno essere erogati agli utenti mobili (attraverso vari sistemi IoT, wearable device nonché bot e assistenti virtuali stessi).  

Le prospettive sembrano rosee ma ci sono ancora alcune barriere da superare, avverte Leow. Secondo lo scenario che emerge dall’indagine condotta alla fine del 2016, infatti, la mancanza di budget, le lacune nelle competenze degli sviluppatori e il poco tempo a disposizione rappresentano ancora barriere molto diffuse e impediscono che si “faccia il salto” verso uno sviluppo applicativo più efficace. Tra gli altri limiti rilevati, anche la difficoltà di trarre benefici economici diretti dal rilascio delle applicazioni mobile, criticità che però Leow attribuisce alla “mancanza di comprensione delle esigenze del cliente da parte dei team di sviluppo”.

L’analisi di Leow non si ammorbidisce nemmeno quando entra nel dettaglio della spesa IT e di come questa viene allocata per lo sviluppo applicativo: “nonostante gli intervistati dichiarino nel 68% dei casi di prevedere un aumento della spesa per le mobile app, la media delle proporzioni ci dice che solo l’11% del budget totale dedicato al software viene destinato alle applicazioni mobili”.

In questo caso, il vecchio detto “tra il dire e il fare c’è di mezzo il mare’ sembra più che mai appropriata.

I 9 trend dell’IT nei prossimi mesi, secondo Gartner: tra edge computing, cloud, e Io by luca nogara

Gartner ha riassunto quali saranno le principali tendenze IT del 2017. Anche se non si tratta di argomenti del tutto nuovi, sarà la loro evoluzione ad avere un impatto significativo sui team IT e sui carichi di lavoro dei data center. La governance sarà in mano a 5 professionisti chiave

fonte: digital4.biz - puoi leggere l'articolo originale qui 

Data center interconnessi, invisibili, containerizzati, capaci di orchestrare l'evoluzione di una Internet of Things pervasiva. La governance sarà in mano a nuove figure chiave, sempre più specializzate nei vari cluster di pertinenza che caratterizzano lo sviluppo dei data center di domani, incentrati su chiavi di servizio sempre più sofisticate e performanti.

Quali sono le  tendenze che continueranno a definire il ruolo dei professionisti IT e le competenze che questi ultimi dovranno avere per gestire i data center del prossimo futuro?

Se ne è parlato ad Orlando lo scorso mese, in occasione dell'IT Operations Strategies and Solutions Summit di Gartner. Gli esperti hanno analizzato i top trend del 2017 in ambito IT per far luce su quali saranno gli elementi che avranno un impatto maggiore sugli operatori del settore.

1) I data center tradizionali scompariranno

I tradizionali data center on premise stanno diminuendo di giorno in giorno. Il motivo? Le leggi di mercato. Per le aziende oggi esistono delle alternative più efficienti ed economicamente convenienti. Gli analisti di Gartner hanno rilevato che oggi circa l'80% dei carichi di lavoro aziendali si esegue on premise e il restante 20% si trova sul cloud o su impianti esternalizzati, mentre entro il 2021 la percentuale dei workload eseguiti localmente scenderà a circa il 20-25%, a tutto vantaggio delle soluzioni cloud e off-premise. Il concetto di data center as a service (DCaaS) ha guadagnato terreno poiché le imprese hanno spostato il proprio focus dall’infrastruttura alle applicazioni. Ma la scelta di cloud, outsourcing, SaaS, PaaS, risorse umane as a service e DCaaS non sono proposte poi così estreme. Gli esperti ritengono che un solo delivery model probabilmente non supporterà tutte le esigenze di un'organizzazione e che gli operatori, probabilmente, dovranno utilizzare diversi modelli per raggiungere diversi obiettivi.

2) I data center saranno interconnessi

La connettività è un elemento caratteristico della moderna tecnologia dei data center, ma la crescita del cloud e di altri servizi off-premise la metterà ancora più al centro dei processi operativi, utilizzando i collegamenti in fibra per la connettività ad alta velocità e di lunga distanza.

Secondo gli esperti, le interconnessioni future fonderanno data center e risorse in modo molto simile alle reti peer-to-peer. Questo metterà le prestazioni e la resilienza della connettività dei provider di cloud e software-as-a-service alla pari con le risorse  di calcolo e archiviazione  private on-premises, oltre a offrire flessibilità e agilità su scala più vasta.

3) I container cambieranno le applicazioni

I container continuano a essere una delle principali tendenze dell’IT aziendale. Questo perché consentono nuove forme di sviluppo e implementazione delle applicazioni che non sarebbero possibili persino con centri dati virtualizzati.

Mentre questo scenario rappresenta un terreno fertile per gli sviluppatori, ai professionisti IT richiede di implementare e supportare i container, oltre ad affrontare nuovi problemi di gestione relativi al loro utilizzo, come governance, licenza software e così via. Gli esperti evidenziano che per creare, monitorare, gestire e distruggere i container gli operatori devono garantire un'infrastruttura solida, organizzando e monitorando tutte le risorse utilizzate per farli funzionare.

 

4) L’IT, se saprà innovarsi, guiderà il business

I leader aziendali comprendono il ruolo svolto dai servizi IT in azienda e la loro importanza per il successo del business, ma gli analisti sottolineano come l’era dell’ IT in-house che dà ordini su applicazioni, servizi e tecnologie utilizzate dalle unità di business sia terminata. La rapida crescita del cloud pubblico, del SaaS e di altri servizi concorrenziali ha posto sulla difensiva i modelli IT  tradizionali: non c'è più bisogno di aspettare che l’IT possa valutare, raccomandare o distribuire servizi e carichi di lavoro quando esistono opzioni efficaci che possono essere impegnate più velocemente e con meno problemi nelle line of business.

Gartner fa notare come oltre il 20% della spesa IT aziendale, attualmente, sia  fuori dal controllo IT e come ciò rappresenti una sfida per l’IT che deve sapersi innovare e ripensare il suo ruolo di abilitatore di servizi e broker.

5) La stranded capacity dovrà essere identificata e ridotta

Il concetto di stranded capacity non è certo una novità, ma la velocità e l’agilità dai moderni modelli di calcolo rendono i problemi di sprawl molto più pronunciati e potenzialmente costosi. Gli analisti di Gartner hanno riferito che il 22% delle istanze di calcolo oggi sono invisibili, ovvero sono istanze che eseguono e consumano risorse, ma non forniscono alcun valore all'attività. Il 40% dei rack non è adeguatamente approvvigionato e i server eseguono solo il 32%. Tutto questo si traduce in sprechi di risorse, ovvero in costi inutili per l’organizzazione.

6) Internet of Things in emersione

L'internet delle cose è diventato rapidamente uno dei trend principali in ambito IT, grazie alla sua capacità di sfruttare enormi quantità di dati in opportunità mai viste prima sia per le vendite, il controllo e l'analisi dei processi. I dispositivi IoT possono velocizzare i tempi di vendita con funzionalità predefinite, elevata scalabilità, supporto per i fornitori e un ecosistema di fornitori abbastanza completo. Nonostante ciò, gli esperti notano che i dispositivi reali e gli stack di software utilizzati nelle distribuzioni IoT sono ancora in fase di definizione e che il settore soffre ancora della mancanza di uno standard.

7) I dispositivi remoti devono essere gestiti

L’Internet of Things richiede che i team IT gestiscano anche  i dispositivi remoti - le cose dell’internet, appunto!  - e ciò rappresenta una sfida logistica non da poco: significa occuparsi di installare, configurare, gestire, sostituire o ritirare ogni dispositivo remoto presente nell'ambiente.

8) Micro ed edge computing meritano attenzione

Invece di investire in una larghezza di banda di rete più costosa, molte organizzazioni impiegano risorse di calcolo su piccola scala e risorse di archiviazione più vicine alla posizione del lavoro effettivo: questa strategia è conosciuta come edge computing. Tuttavia, tali sforzi di elaborazione remota o pongono di fronte ai responsabili IT altri tipi di problemi, come la resilienza e la manutenzione. Le aziende devono pertanto considerare con attenzione i requisiti e le vulnerabilità di una piattaforma di calcolo remoto.

9) Guardare avanti verso i nuovi ruoli dell’IT: le 5 figure chiave della governance

Queste tendenze e la mutevole relazione tra business e IT hanno generato nuovi ruoli nel settore.

  1. Secondo gli esperti, per esempio, l’architetto dell’Internet of Things sarà colui il quale selezionerà e implementerà i componenti di un sistema IoT per garantire una corretta gestione e integrazione con altre infrastrutture e software di data center.
  2. Il cloud sprawl specialist, invece, monitorerà l'utilizzo delle risorse nel cloud pubblico e privato e applicherà politiche rivolte a ridurre al minimo gli sprechi. Lo strategy architect sarà la figura che esaminerà le infrastrutture esistenti e fornirà indicazioni per ottimizzarle, individuando le tecnologie necessarie per conseguire gli obiettivi aziendali.
  3. Uno specialista di capacità e risorse, invece, si occuperà di analizzare le risorse per il business con il fine di individuare, ove possibile, alternative a costi più accessibili.
  4. Gli esperti ritengono che alla figura del broker and provider specialist, invece, verrà demandato il compito di identificare i migliori servizi di business tra quelli offerti dalla gran quantità di potenziali fornitori per guidare l'azienda verso l’impiego di servizi convenienti capaci di integrarsi con altre piattaforme di business.
  5. Infine, un esperto di performance ed end-to-end si occuperà di application performance management per garantire che i carichi di lavoro operino con la massima efficienza e la soddisfazione degli utenti.

Data center in Italia? L'83% è in house, ma risorse e infrastrutture non sono più adeguate al business by luca nogara

Data center aziendali indispensabili ma anche concettualmente obsoleti. Lo staff IT occupa più tempo a gestire i contratti con i fornitori che a occuparsi dello sviluppo e della programmazione. Il cloud piace e interessa, ma c'è ancora molta paura per la business continuity. Tutti i numeri in una survey firmata NetworkDigital360

fonte: digital4.biz - puoi leggere l'articolo originale qui

Data center in Italia come cardine del business ma anche come asset sempre più critico. I dati parlano chiaro: a fronte di nuovi modelli tecnologici incentrati sul cloud e sulle logiche dell'As a Service e del Pay Per use, 8 aziende su 10 (83%) nel nostro Paese hanno ancora un data center in house, l'85% delle imprese ha bisogno di far evolvere l'infrastruttura IT in una chiave di maggiore razionalizzazione e agilità, quasi 7 aziende su dieci (69%) hanno uno staff sottodimensionato rispetto alle esigenze e ai compiti associati alla governance. 

lI vero problema dei data center in Italia, infatti, sono infrastrutture aziendali che non hanno seguito un modello di sviluppo programmato e oggi sono il risultato di una crescita molto più addizionale che strategica. Questo è il motivo per cui tutte le aziende confermano di avere necessità di cambiare, in un'ottica di forte rinnovamento delle macchine ma anche delle modalità di gestione dei servizi.

A rivelarlo una survey condotta da NetworkDigital360, in collaborazione con Dimension Data, su un campione di 280 aziende italiane di medie dimensioni (superiori a 250 dipendenti), operanti in vari settori industriali dal manufacturing (65%) al finance (10%), dal retail  (20%) al chimico-farmaceutico (4%).

Data center in Italia: voglia di evoluzione per quasi 9 aziende su 10

Gli analisti hanno sottolineato come per quasi nove aziende su 10 (85%) il motivo principale che sta spingendo la direzione a revisionare le infrastrutture ICT esistenti sia la volontà di razionalizzare un installato eterogeneo, costituito da sistemi legacy e nuove soluzioni che progressivamente sono entrate in azienda per rispondere rapidamente alla domanda delle diverse LOB che richiedono maggiore agilità e una velocità di servizio crescente. Il resto delle risposte fotografa segnali di evoluzione e di cambiamento in relazione allo sviluppo del business. La reingegnerizzazione dei data center italiani, infatti, è funzionale alla crescita dell'organizzazione interna (22%), ad acquisizioni/merge e dismissioni di rami d'impresa (15%), all'apertura di nuove filiali (12%), all'apertura di nuove business unit (10%) e all'internazionalizzazione legata a delocalizzazione o apertura di sedi estere (6%). Solo l'11% delle imprese dichiara di aver bisogno di rinovare le proprie infrastrutture per adeguarle alla compliance normativa.

 

Per più di 8 aziende su 10 il data center non è un servizio ma una proprietà

La volontà di sviluppare i servizi richiesti nel più rapido tempo possibile per garantire il time to market aziendale oggi spinge le imprese a rivedere la propria regia informatica. L’obbiettivo? Presidiare la governance integrando applicazioni e sistemi secondo criteri di centralizzazione e omogeneizzazione più efficaci e con economie più lungimiranti e sostenibili. La ricerca ha messo in luce ulteriori aspetti che aiutano a capire quali sono i limiti di un approccio più evoluto: l’83% delle imprese italiane considera ancora il data center come un bene, ovvero un asset rigorosamente proprietario. Meno di 1 azienda su 10 (8%) ha terziarizzato la complessità del data center affidandola a un provider specializzato e meno di 1 azienda su 10 (9%)  ha spostato il proprio approccio da un concetto di possesso a un concetto di puro servizio affidando a un cloud provider la gestione in toto delle proprie infrastrutture ICT. 

 

Grande interesse per il cloud

Alla domanda “Valutando la possibilità di una migrazione delle vostre infrastrutture in cloud, quali delle seguenti opzioni terreste più in considerazione?” gli analisti hanno registrato come il 35% delle aziende sia più propensa a scegliere un modello ibrido, il 33% un modello di cloud privato e il 20% un modello di cloud pubblico. 8 aziende su 10 scelgono la virtualizzazione mentre solo due aziende su 10 affermano di non essere minimamente interessate a spostare sulla nuvola le proprie infrastrutture, mentre un’azienda su dieci confessa di non aver ancora preso posizione. In realtà l'indagine evidenzia come ci siano ancora moltissimi freni rispetto all'uso più intensivo e strategico della nuvola. 

 

L’orientamento delle risposte suggerisce che le imprese italiane nutrono ancora diverse riserve nell’affidare la gestione delle proprie infrastrutture completamente all’esterno del tradizionale aziendale. Le risposte, in vario modo, sono quasi tutte legate al timore di interrompere la business continuity. Al primo posto delle criticità per quasi 6 aziende su 10 c’è la paura di intaccare la sicurezza aziendale (59%) seguita, praticamente a pari merito (58%), dalla scarsa fiducia rispetto alle garanzie di una connettività tale da garantire la business continuity erogata in cloud. La terza criticità, in ordine di spiegazione, è comunque correlata allo stesso tema: il timore di un’interruzione rispetto alla continuità operativa, indicata da quasi 5 aziende su 10 (49%). Per il 36% delle imprese la migrazione sulla nuvola delle proprie infrastrutture è frenata da problemi associati alla compliance, a pari merito con motivazioni legate alla paura di vedere aumentare i costi dell’As a Service. Per due aziende su 10 (20%), invece, il cloud è inaccessibile perché le infrastrutture sono troppo obsolete per consentire una gestione on demand.

Staff IT sempre più ...staffati. La risposta è nell'outsourcing

Al di là delle criticità legate alla gestione di server, storage e infrastrutture di rete fisiche e virtuali la survey ha messo in luce una grossa una grossa crisi interna allo staff ICT: quasi 7 aziende su dieci (69%) dichiara di essere sottodimensionato ma il 31% ha ovviato al problema grazie a risorse in outosurcing. La governance è ripartita tra chi si occupa di demand management (73%) che raccoglie informazioni dal business e le traduce in requisiti IT, una parte del personale (70%) che a causa della sempre più rapida obsoloscenza tecnologica dell’hardware e del software si occupa di gestire contratti diversificati con una molteplicità di fornitori per upgrade ed evolutive, personale prettamente tecnico e dedito allo sviluppo e alla programmazione (67%). A fronte di un 45% di aziende che non pensa di intervenire su un potenziamento dello staff IT, più di 3 aziende su 10 (33%) afferma che ricorrerà all'outsourcing mentre 1 azienda su 10 sta formando il proprio personale e 1 azienda su 10 provvederà al gap attraverso nuove assunzioni.

 

 

Governance delle infrastrutture nell'era omnicanale e gestione del rischio by luca nogara

Nella gestione delle prestazioni di rete dirigere l'orchestra tecnologica costituita da una molteplicità di prodotti fissi e mobili e una gamma infinita di applicazioni sembra diventata una missione impossibile. Secondo Accenture, il 70% delle aziende conferma come la cybersecurity impatti sulla governance imponendo nuovi modelli di gestione. Quali i trend e quali linee guida seguire?

fonte: digital4.biz - trovi l'articolo originale qui

Governance delle infrastrutture nell'era omnicanale significa saper lavorare sulle architetture di rete con una visione estremamente allargata e dinamica rispetto alle soluzioni da innestare e presidiare. Garantire la massima continuità operativa rimane un fondamentale. Come riuscirci è tutto un altro discorso.

Il tema è duplice. Da un lato bisogna continuare a gestire i processi, interpretando i protocolli associati a una molteplicità di livelli per agganciare e far funzionare soluzioni, aprendo nuovi canali di comunicazione finalizzati ad abilitare tutti i nuovi servizi richiesti dalle LoB che, ormai, hanno capito che non c'è business senza una strategia omnicanale. Dall'altro bisogna continuare a garantire la business continuity che, con l'evolversi delle tecnologie di ultima generazione, ormai tende a rientrare in quel macrocapitolo chiamato Cybersecurity. Secondo una ricerca condotta da Accenture, ad esempio, 7 aziende su 10 confermano come la cybersecurity impatti sulla governance imponendo nuovi modelli di gestione.

Il problema è collettivo: gli analisti hanno infatti evidenziato come, nel mondo, le organizzazioni nel 2015 abbiano  speso 84 miliardi di dollari sulla sicurezza e da qui ai prossimi quattro anni la cifra lieviterà a quota 125 miliardi. Sono un sacco di soldi, è vero, ma i costi che le aziende dovranno sostenere entro il 2030 in seguito ai cyberattacchi  sono stimati da Accenture nell'ordine dei 90 miliardi di dollari.

Governance delle infrastrutture nell'era omnicanale, distribuita anzi troppo distribuita

Che si tratti di abilitare un nuovo server, avviare un servizio di streaming, includere tra gli accessi alla rete i dispositivi mobili non solo dei dipendenti ma anche degli ospiti o implementare qualsiasi altro touch point che la Internet of Things ha reso più smart (dal sistema di videoconferenza all'e-board, dal chiosco interattivo in reception al tavolo intelligente in show-room), la governance deve cosiderare sempre e comunque che la connettività alla rete porta con se nuovi margini di rischio che vanno analizzati, capiti, prioritizzati e gestiti.

Dall'azienda estesa all'azienda distribuita tra le decine di utenti che lavorano da cellulare, da tablet, da pc portatile ma anche da tutta una serie di dispositivi associati a una Collaboration supportata da tutte le derive tecnologiche della Unifiend Communication significa prevedere una quantità di software di riferimento inenarrabile. Il tutto considerando come il cloud abbia cambiato ulteriormente gli equilibri, spostando una parte delle infrastrutture nell'etereo universo dell'As a Service.

Il problema, spesso, è che nelle aziende le figure di riferimento per gestire i servizi sono diverse. Il CIO è spesso un senior cablato nella gestione dei fornitori e del suo staff IT mentre il network manager, che conosce la rete come le sue tasche difficilmente si occupa di Security, dal momento che questa è stata associata anche alla gestione della proprietà dei dati, della proprietà intellettuale, della Privacy, della Compliance e di tutta un'altra serie di task che sono stati spostati su altre figure professionali. Il risultato è che ognuno fa il suo ma le architetture di rete continuano a crescere in maniera discontinua e pericolosa. Serve una centralizzazione delle attività e serve un sistema di supervisione condiviso tra i manager che aiuti l'azienda a capire in fretta cosa sta succedendo e perchè, al di là di tutti gli strumenti di controllo puntuali di cui è stata costellata l'infrastruttura.

 

Per gestire prodotti multipli e tutto il profluvio di applicazioni oggi le aziende inziano a utilizzare nuove piattaforme che, attraverso un unico cruscotto centralizzato, consentono di presidiare le reti e di rilasciare servizi in tempo reale. L'obbiettivo? Gestire le infrastrutture a 360 gradi. 

Ieri architetture di rete. Oggi ecosistemi estesi

«Le architetture dei data center - ha spiegato Stefano Mainetti, Responsabile Scientifico Osservatorio Cloud & ICT As a Service della School of Management del Politecnico di Milano - si stanno muovendo da soluzioni on-premise basate su server fisici (o blade server) in cui servivano skills specifici (tipicamente skills sistemistici) verso soluzioni più semplici da gestire in cui l’hardware sottostante è sempre più nascosto e gestito esternamente. Questo aumenta da un lato le performance e l’affidabilità delle infrastrutture (si pensi alle capacità di investimento che hanno i provider nei confronti dei loro data center) e dall’altro il livello di scalabilità (che non si poteva ottenere prima con le soluzioni on-premise basate su sistemi fisici). Il punto di arrivo è il software defined data center che, attraverso meccanismi di integrazione, può dare vita ad architetture ibride capaci di accedere dinamicamente a ulteriori risorse computazionali, come il cloud pubblico. Operativamente, si parla quindi di un modello architetturale basato sulla condivisione di risorse, che supera il concetto tradizionale di silos e si muove verso un data center programmabile come un software. Alle aziende, dunque, sono richieste nuove vision e una nuova governance». 

In ambito industriale, soprattutto, i mondi IT e OT convergeranno su una soluzione interclouding e la differenza la farà la flessibilità e interoperabilità di quanto disponibile, da cui la strategicità dei partner tecnologici con i quali si andrà a collaborare su tutti i livelli dei processi aziendali. Questo comporterà una revisione profonda a livello di organizzazione, ruoli e responsabilità rispetto alle figure IT e OT oggi presenti in azienda. 

Le indicazioni degli esperti? Abbandonare il concetto di architettura e sposare quello di ecosistema esteso, che cambia e cresce costantemente. Solo in questo modo le organizzazioni potranno essere in grado di adattarsi e riallinearsi per proteggere la propria continuità operativa avendo ben chiare le priorità aziendali secondo una nuova logica evolutiva.

Secondo Accenture, con un'economia digitale in rapida espansione, molte organizzazioni dovrebbero valutare più seriamente le falle che potrebbero crearsi nelle proprie infrastrutture di rete, soprattutto considerando come ormai la sicurezza sia partizionata tra più partner a cui è stata terziarizzata la complessità. 

Un suggerimento importante degli analisti alle aziende è di non dare più per assodato quanto si è costruito: ogni giorno arrivano nuove istanze e nuove tecnologie, nuove minacce e nuove soluzioni da analizzare, portare in azienda, interfacciare e integrare, controllare, aggiornare, proteggere, insomma gestire. La Governance 4.0 va rifondata su un concetto di massima trasparenza informatica, non su un addizione di strumenti diversi: è ora di razionalizzare e passare a piattaforme di controllo capaci di gestire in modalità convergente l'eterogeneità di sistemi e applicazioni in modo dinamico e cybersicuro.

Polimi, l’eCommerce B2B in Italia vale 310 miliardi: «Il 14% di tutte le interazioni business è digitale» by luca nogara

Gli scambi di informazioni e le transazioni tra imprese via web o EDI crescono del 19% in un anno. Più di metà delle grandi aziende, e una PMI su 4, usano soluzioni eProcurement, eSupply Chain Execution o Collaboration. Censiti 430 Portali B2B ed Extranet, 250 Portali eProcurement, e 150 milioni di documenti scambiati via EDI. Tutti i dati del report 2017 dell'Osservatorio Fatturazione Elettronica ed eCommerce B2B del Politecnico di Milano

fonte: digital4.biz - puoi leggere l'articolo originale qui 

310 miliardi di euro. Questo il valore raggiunto in Italia nel 2016 dall’eCommerce B2b, la gestione delle transazioni tra imprese tramite soluzioni digitali: un valore cresciuto del 19% in un anno, e che rappresenta il 14% del totale delle transazioni tra le imprese (B2B) nel nostro Paese, che nel 2016 è stato di 2200 miliardi di euro. Questi i principali dati dell’edizione 2017 dell’Osservatorio Fatturazione Elettronica ed eCommerce B2B del Politecnico di Milano, presentata stamattina.

«Il 14% del totale degli scambi B2B è un valore significativo, ma ancora marginale - ha detto Alessandro Perego, Direttore Scientifico Osservatori Digital Innovation e Responsabile Scientifico dell'Osservatorio Fatturazione Elettronica & eCommerce B2B- Sono ormai 15 anni che studiamo l’uso del digitale per gestire le transazioni e la collaborazione B2B tra le imprese: è uno dei temi meno “sexy” della digital transformation italiana, molto meno dell’Intelligenza Artificiale per esempio, eppure ne costituisce le fondamenta. È una battaglia culturale, e vogliamo contribuire a far capire che i benefici sono enormi, e vanno ben oltre quelli della dematerializzazione e della fatturazione elettronica: per questo abbiamo ampliato il nome dell’Osservatorio per comprendere tutto l’eCommerce B2B».

Automotive e Farmaceutico le filiere più "digitalizzate"

La metà del valore dell’eCommerce B2B italiano, spiega il report, si concentra nel rapporto tra produttori e rivenditori, mentre il 30% scaturisce da scambi tra produttori e fornitori, e il restante 20% dai rapporti grossisti-rivenditori e produttori-grossisti. 120mila imprese italianenel 2016 hanno usato soluzioni di eCommerce B2B, il 20% in più dell’anno precedente. Tra esse c’è oltre la metà delle grandi imprese italiane, e più di una PMI su 4.

Distinguendo per comparti merceologici, Automotive (80 miliardi di euro), Largo Consumo (65 miliardi) e Farmaceutico (18 miliardi) sono i primi 3 settori in Italia per volume di scambi di eCommerce B2B. L’Automotive si conferma al primo posto anche per l’incidenza dell’eCommerce rispetto al totale del transato B2B (ben il 70%), quasi eguagliato però dal Farmaceutico (67%).

L’Osservatorio classifica le soluzioni eCommerce B2B in tre categorie: eProcurement (ricerca, qualificazione e certificazione fornitori, negoziazione su strumenti digitali, eCatalog), eSupply Chain Execution (fasi logistiche, commerciali, amministrative e contabili), eSupply Chain Collaboration (pianificazione, sviluppo nuovi prodotti, gestione della qualità).

«Circa il 75% del valore dell'eCommerce B2b scaturisce dall’uso di applicazioni di eSupply Chain Execution, perché le imprese negli ultimi anni si sono concentrate soprattutto sul recupero di efficienza digitalizzando il Ciclo Order-to-Pay – ha spiegato Irene Facchinetti, Direttore dell'Osservatorio -. Le soluzioni di eProcurement ed eSupply Chain Collaboration invece sono usate per lo più da poche grandi imprese e incidono molto meno sui volumi complessivi scambiati».

 

Per quanto riguarda l’eSupply Chain Execution, l’Osservatorio distingue tra connessioni EDI e portali B2B/Extranet. Nel primo caso (reti EDI) oltre 150 milioni di documenti digitali (+36% rispetto al 2015) - soprattutto fatture, ordini, conferme di spedizione - sono stati scambiati nel 2016 tra oltre 12.000 imprese (+9%), il 96% delle quali appartiene a soli 5 settori: Automotive, Elettrodomestici/Elettronica di Consumo, Farmaceutico, Largo Consumo, Materiale Elettrico. Quanto a Extranet e Portali B2b, sono circa 430, utilizzati principalmente dalle grandi imprese per interagire con ecosistemi frammentati o piccole imprese.

C’è poi anche il Sistema di Interscambio (SdI) per interagire con la Pubblica Amministrazione (e non solo), già adottato al 31 dicembre 2016 da oltre 900.000 imprese, con cui l'anno scorso sono state scambiate oltre 30 milioni di Fatture Elettroniche nel Tracciato FatturaPA.

Passando all’Procurement, in Italia sono quasi 250 i grandi Portali che supportano sia i processi di selezione e qualifica dei fornitori sia le fasi di negoziazione e acquisto. Nel 60% dei casi i Portali sono cataloghi elettronici, prevalentemente per l’acquisto di beni e servizi indiretti (utensileria, articoli per ufficio, ecc.). Nel restante 40% dei casi gestiscono anche lo scambio di documenti del Ciclo dell’Ordine.

Quanto all’eSupply Chain Collaboration, l’adozione di queste soluzioni resta limitata. Fanno eccezione pochi grandi attori che hanno deciso di scambiare con clienti e/o fornitori informazioni “strategiche” (dati di sell-out, livelli di stock, piani di produzione, previsioni di vendita) oltre a quelle “operative” (Ordini, Fatture). C'è interesse per le collaborazioni nei processi di Marketing e Comunicazione (30% delle imprese), meno nello sviluppo congiunto di nuovi prodotti (14%).

Infine oltre il 60% delle grandi imprese intervistate dall'Osservatorio indica tra le priorità di investimento per i prossimi tre anni progetti digitali a supporto del ciclo Order-to-Pay, e dei processi interni (Gestione Elettronica Documentale, Conservazione Digitale). Tre imprese su 4 dichiarano tra le priorità almeno un progetto collaborativo (Marketing o Monitoraggio della Supply Chain). Prioritarie solo per un’impresa su 5, invece, le soluzioni di eProcurement.

«Tirando le somme, il valore dell'eCommerce B2b resta ancora marginale in termini di incidenza sul transato delle imprese in Italia, ma è in sensibile crescita – ha sottolineato Facchinetti -. Rispetto allo scorso anno, oltre a un incremento del dato di circa il 20%, abbiamo in generale riscontrato una maggior sensibilità delle imprese per le opportunità offerte dall’eCommerce B2b, inteso come ripensamento in chiave digitale del modo in cui un’organizzazione funziona e si relaziona con i propri clienti e fornitori. Ma deve diventare una priorità per tutte le imprese e per il Paese».

 

Advertising, è finito il tempo dell’integralismo digitale by luca nogara

Molte previsioni sul Marketing di pochi anni fa non si sono realizzate: la pubblicità televisiva non è affatto morta, e ci si è resi conto che lavorare in modo iper personalizzato non sempre ripaga. Oggi tradizione e innovazione convivono e per essere davvero distintivi serve focalizzarsi su creatività, capacità di raccolta e utilizzo dei dati, e assetti organizzativi coerenti. Il punto di Giuliano Noci, Ordinario di Marketing al Politecnico di Milano

fonte : digital4.biz. l'articolo originale del professor  Giuliano Noci

il Professor Giuliano Noci scrive:

Da più di 15 anni ormai mi occupo di analizzare e studiare i cambiamenti indotti dal cosiddetto mondo digitale nel mercato della pubblicità.
Lungo tutto questo periodo abbiamo registrato asserti e proclami, più o meno conclusivi, frutto di presunte certezze del momento; ad esempio, credo sia capitato a tutti voi sentire da autorevoli esponenti della comunità del marketing o di leggere che la pubblicità televisiva avrebbe subito un fenomeno di rilevante implosione, oppure che finalmente si sarebbe potuto fare comunicazione assolutamente personalizzata - diretta e mirata al singolo individuo - o ancora che il digitale sarebbe stato alla portata di tutte le imprese e avrebbe aperto opportunità di business a molteplici nuovi soggetti/ editori: la cosiddetta democrazia diretta della rete.
La progressiva diffusione di Internet, infatti, l’affermarsi progressivo dei device digitali - smartphone in primis - e gli stessi cambiamenti delle esperienze mediali degli individui – sintetizzabili nelle cosiddette 4M (Mobile, Multichannel, Multitasking, Multi-screen) - non hanno fin qui, nei fatti, confermato quelle certezze che sembravano dar corpo alle consapevolezze di cui sopra.

La TV non è morta: non solo perché si è evoluta profondamente (da mezzo di trasmissione lineare a oggetto in grado ormai di lavorare sia in logica push che pull sul fronte dei contenuti nonché della personalizzazione della proposta di contenuti) ma anche perché rappresenta ancora oggi lo strumento migliore e più efficace se si voglia lavorare in funzione di un obiettivo di riconoscibilità della marca.
Allo stesso modo, ci si è resi conto che lavorare in modo iper personalizzato (con segmenti di piccolissime dimensioni fino a collassare con il singolo individuo) non sempre ripaga; la fama aggiunge valore a un brand e per conquistarla è ancora oggi necessario/opportuno veicolare una comunicazione capace di catturare la pubblica immaginazione e, per questo motivo, è importante lavorare in una logica di broadcasting. Non si è d’altro canto rivelata tale proprio la cosiddetta democrazia della rete: ad oggi, Google e Facebook rappresentano un duopolio che raccoglie circa il 70% degli investimenti nella comunicazione digitale effettuati dalle imprese, determinando nei fatti condizioni di mercato non sempre trasparente. Questa considerazione ci porta a dire che fare comunicazione pubblicitaria oggi richiede la gestione integrata di tre dimensioni/leve: arte e scienza, su cui ci eravamo concentrati nel periodo pre-Internet e che abbiamo quasi dimenticato in questi anni; tecnologia - che invece negli ultimi anni sembrava essere obiettivo principe e assolutizzante qualsiasi scelta di comunicazione (il canale prima di tutto!).

Comunicare in logica display o contestuale: obiettivi diversi

Per meglio comprendere questa affermazione, dobbiamo cercare di mettere in fila alcuni aspetti che appaiono ora consolidati. Non mancano schermi e impressions attraverso i quali vengono veicolati messaggi pubblicitari. Vi è invece una carenza di connessioni di valore tra marca e individui e questa è la chiave - assolutamente tradizionale - attraverso la quale dobbiamo re-interpretare, in una prospettiva moderna, il modo di fare pubblicità oggi. In termini concreti, la possibilità di essere rilevanti richiede di costruire un’architettura di comunicazione integrata in cui la distinzione tra media tradizionali (TV) e canali digitali viene a cadere.
Non esiste infatti alcuna differenza sostanziale tra comunicazione veicolata tramite smart tv (ormai addressable) e banner veicolati via web/ mobile app; la vera differenza si ha tra l’attuazione di un programma di comunicazione in logica display e contestuale.

Nel primo caso, l’obiettivo è contribuire alla brand equity e quindi alla costruzione di legami emotivamente orientati con la customer base; un risultato che può essere ottenuto - tenendo conto delle caratterizzazioni specifiche dei differenti mezzi - attraverso la (smart) tv e/o i media digitali.
Questa prospettiva comunicativa va a lavorare, in altre parole, sui meccanismi di attenzione e memorizzazione selettiva che inducono un individuo a considerare una specifica marca nel consideration set in fase di acquisto.

Nel secondo caso, l’assunzione di fondo è che la comunicazione sia un’ambient activity, che deve tenere conto dello specifico contesto in cui l’individuo si trova, delle azioni che compie e della sua (geo) localizzazione nella prospettiva di ingaggiare l’individuo e quindi indurlo ad orientarsi verso l’acquisto (o spostarsi verso fasi più avanti del funnel di marketing).

 

Creatività, dati, organizzazione: la ricetta per fare Marketing oggi

In questa prospettiva, esiste nei fatti un unico spazio di comunicazione in cui convivono tradizione (comunicazione in logica push, diremmo pubblicità) e innovazione (comunicazione contestuale) e la cui progettazione richiede la contemporanea presenza di tre determinanti:

1) creatività: come abbiamo visto infatti il digitale non solo non toglie rilievo all’estro creativo tipico delle attività di comunicazione tradizionali ma per certi versi lo rafforza. La grande frammentazione comunicativa e la possibilità per gli individui di accedere ai contenuti in logica multiscreen e alla bisogna rendono ancora più rilevante la capacità di ingaggio da parte di una marca/impresa. Ovviamente molto diverso è sviluppare la creatività oggi: non esiste più una sola creatività dato un obiettivo/brief di comunicazione; sono spesso necessari sviluppi creativi differenti (ma consistenti rispetto all’obiettivo del piano) in ragione della necessità di tenere in conto delle specificità dei touchpoint e dei contesti di vita attraverso i quali si raggiunge la target audience deliberata;

2) capacità di raccolta e utilizzo dei dati: se è infatti vero che i dati non hanno potere di agire sull’immaginazione degli individui (e quindi di creare legami emotivi) è altrettanto importante considerare che giocano un’importanza fondamentale nel momento in cui si gioca la partita della comunicazione come ambient activity. La rilevanza dei dati è, in particolare, diretta conseguenza della necessità di acquisire rilevanza rispetto alla specifica contingenza in cui si trova l’individuo; una rilevanza che può essere conquistata solo conoscendo comportamenti di acquisto, interessi e decisioni di un individuo e, in questo senso, è il frutto di una significativa capacità di integrazione di silos informativi (differenti componenti del data warehouse aziendale, social network) da parte dell’impresa.

3) assetti organizzativi coerenti con i requisiti di una piattaforma comunicativa efficace. A questo proposito si guardi agli elementi chiave della progettazione organizzativa in ambito marketing. Occorre, in primis, essere consapevoli del fatto che non ha più alcun senso discriminare nell’organigramma aziendale tra unità di comunicazione tradizionale e quella digitale proprio in virtù dell’unicità percepita dal mercato con riferimento allo spazio di interazione tra individuo e impresa/marca. Appare sempre meno sostenibile la tendenza verso la frammentazione dei meccanismi di accesso ai servizi di comunicazione: all’aumentare del numero di agenzie/soggetti con cui si interagisce per la progettazione/implementazione di un piano di comunicazione, cresce il rischio di veicolare al mercato messaggi/comunicazioni incoerenti.

È infine rilevante - e scontato alla luce di quanto sopra evidenziato - che si innestino nell’organizzazione competenze di data intelligence.

Un posizionamento distintivo non può prescindere dal contesto

Abbiamo allora sbagliato tutto in questi quindici anni? No; abbiamo però vissuto lo sconquasso provocato da Internet con un eccesso di integralismo digitale. Ci siamo in parte dimenticati che la possibilità per un’impresa di creare valore economico è ancora frequentemente connessa con la sua capacità di affermare un posizionamento distintivo sul mercato (ce lo insegna Apple) e, in ragione di questo obiettivo, la marca deve ancora oggi diventare elemento/humus del contesto culturale in cui gli individui sono immersi.

L'Ufficio Acquisti nell'era digitale: l'eProcurement a portata anche delle PMI by luca nogara

Negli ultimi anni si sono affermati modelli di gestione degli approvvigionamenti che risolvono l'intero processo source-to-pay utilizzando piattaforme digitali. Ecco come l'eProcurement riduce costi e tempi di tutte le attività, dallo scouting dei fornitori alla fatturazione elettronica, e perché oggi è uno strumento indispensabile anche per le piccole e medie imprese

fonte: digital4biz.it . potete leggere l'articolo originale qui

 

L’eProcurement (Electronic Procurement) è il processo di approvvigionamento elettronico di beni e servizi attraverso l’uso di piattaforme digitali basate sul Web. Questo tipo di sistemi fa capo a un complesso di regole, modalità organizzative e procedure che comprendono l’impiego di software e tecnologie Internet e di commercio elettronico (eCommerce) che vengono utilizzati tra aziende e aziende (eCommerce B2B o Business to Business), tra aziende e privati (eCommerce B2C o Business to Consumer) o tra aziende e istituzioni pubbliche (B2G o Business to Government).

Le piattaforme di eProcurement possono arrivare a supportare l'intero processo Source to Pay (S2P). L’intero ecosistema S2P è a sua volta composto da macro processi S2C (Source to Contract) e P2P (Procure To Pay). Il primo più orientato alle azioni strategico decisionali, quali ad esempio il monitoraggio e analisi della spesa, governance e tracciabilità del processo negoziale, analisi e valutazione del parco fornitori e relativi rischi e performance. Il secondo, invece, è focalizzato sugli aspetti transazionali-operativi inerenti l'acquisto del bene e servizio richiesto e includono la selezione, utilizzando cataloghi online, l’emissione dell’ordine e relativa entrata merce, fino alla ricezione delle fatture e al pagamento dei fornitori.

Come funziona l'eProcurement e quali sono i punti di forza

Le soluzioni utilizzate si basano su tecnologie di interscambio dei dati standardizzate comeElectronic Data Interchange (EDI) o XML che si interfacciano a software gestionali e soluzioni più evolute come gli ERP (Enterprise Resource Planning).  

I punti di forza di una soluzione digitale di eProcurement si possono sintetizzare in 4 punti chiave: 

  1. informazioni gestite in house o in cloud, fruibili in multicanalità, garantite da modalità di accesso via web browser  
  2. tracciabilità di tutte le attività svolte dall’acquirente e dal fornitore per garantire massima trasparenza in caso di controversie 
  3. continua e persistente disponibilità dei dati e delle informazioni gestite e/o caricate, grazie a sistemi e procedure di disaster recovery e alta affidabilità che garantiscono la business continuity 
  4. altissime garanzie di sicurezza, tracciabilità, trasparenza e continuità, verificate e certificate da enti terzi accreditati, che tutelano il cliente

eProcurement per le PMI

Un tema rilevante per le piccole e medie imprese (PMI), dotate generalmente di uffici acquisti di dimensioni limitate in cui i professionisti spesso devono dividersi su diverse attività, è il carico di lavoro e le competenze necessarie per passare e operare su piattaforme digitali. Per esempio nella gestione di un albo fornitori digitale il carico di lavoro, pur risultando nell’arco dell’intero processo ben inferiore a quello che si registra in una gestione cartacea o con un livello basso di dematerializzazione, presenta qualche elemento di preoccupazione nella fase di inserimento dei dati. In questa fase sono coinvolti entrambi gli attori della relazione cliente/fornitore: l’impresa cliente deve controllare e verificare (e in alcuni casi anche inserire) i dati di centinaia o migliaia di fornitori; l’azienda fornitrice deve inserire e aggiornare sistematicamente i propri dati nell’albo di ciascuno dei propri clienti, ripetendo l’operazione con modalità diverse in assenza di standard riconosciuti e applicati.

 

Limitare la richiesta di dati da inserire e trattare manualmente e reperirli automaticamente da altre fonti dove questi siano già disponibili, diventano imperativi irrinunciabili. La tecnologia dell’eProcurement può già rispondere positivamente attraverso gli strumenti di accesso automatico in cloud a information provider o a agenzie di rating per condividere informazioni quali dati aziendali, dati economico finanziari dedotti e documentati da bilanci certificati, dati ausiliari quali indicatori di solidità finanziaria, analisi della composizione societaria, connessioni e partecipazioni con altre società, evidenza di negatività che impattano sulla solidità e sulla reputazione dell’azienda, e così via. Questi dati entrano automaticamente in modo strutturato nell’albo, sono immediatamente disponibili per la loro fruizione e liberano così sia il fornitore dall’onere dell’inserimento manuale sia, essendo già certificati, il professionista dell’ufficio acquisti dall’onere della verifica, analisi e valutazione.

Anche l'attività di monitoraggio dei comportamenti e delle prestazioni dei fornitori attivi può essere snallita se si raccolgono periodicamente dagli information provider dati aggiornati su bilancio, indicatori finanziari, eventuali cambi di assetto societario e informazioni su sopravvenute positività o negatività.

 

Ufficio acquisti al bivio

Alla luce delle tecnologie oggi disponibili, la gestione documentale tradizionale oggi rimane senza dubbio un processo irrazionale: scrivere, stampare, firmare, vidimare, spedire, fotocopiare/scansionare, archiviare, recuperare un documento cartaceo sono tutte attività che non solo richiedono tempo e risorse, ma sono anche soggette a tassi di errore elevati.  La digitalizzazione dell'intero ciclo dell’ordine - contando i risparmi di manodopera, carta, costi di trasmissione e spazio (di stoccaggio dei documenti) – permette di ridurre il costo di gestione dell’intero ciclo dall’84% del settore materiali edili al 67% del farmaceutico, passando dall’82% nei settori materiali elettrici e largo consumo, all’80% nella produzione di elettrodomestici, secondo stime degli Osservatori Digital Innovation del Politecnico di Milano con le rispettive associazioni di settore.

L’eProcurement insomma semplifica le attività dell’ufficio acquisti, consentendo anche alle microimprese di gestire agevolmente l’intero processo di acquisto di beni e servizi dalla nascita della richiesta o fabbisogno, passando attraverso la negoziazione o gara telematica, fino alla formalizzazione del servizio e relativo ordine-fattura.

I sistemi di approvvigionamento elettronico aiutano i responsabili degli uffici acquisti in tutte le fasi organizzative, dalla selezione, qualificazione e valutazione dei migliori fornitori per la propria azienda all’applicazione corretta di tutti gli aspetti legali necessari alla definizione di contratti di acquisto completi, dalla classificazione, razionalizzazione e definizione degli obiettivi economici e operativi legati alle aspettative delle funzioni interne dell’azienda, alla definizione di un processo di acquisto ideale per la propria azienda. Le procedure di eProcurement, infatti, permettono di valorizzare il patrimonio fornitori lungo tutto il processo di approvvigionamento: assicurando la tracciabilità dell’intero iter di approvvigionamento (dalla prima ricerca di beni/servizi fino alla stipula del relativo contratto), garantiscono una completa visibilità in ogni fase della relazione e migliorano così l’intera gestione acquisti.

GDPR, tutto quello che vorreste sapere ma non avete osato chiedere sulla privacy by luca nogara

Il nuovo Regolamento UE sulla protezione dei dati personali sarà pienamente applicabile esattamente tra un anno, ma in molti casi richiede modifiche organizzative e investimenti in tecnologie tali da richiedere una pianificazione fin da subito. Ecco le novità più significative e gli elementi principali su cui impostare il programma di adeguamento

fonte: digital4.Biz   potete leggere l'articolo originale qui

Il General Data Protection Regulation (GDPR)ovvero il Regolamento UE n. 679/2016 sulla protezione dei dati personali (o Regolamento sulla privacy), è entrato in vigore Il 24 maggio 2016, ma diverrà pienamente applicabile dal 25 maggio 2018, abrogando la Direttiva 95/46/CE. Al tema recentemente è stato dedicato un Workshop della Digital Transformation Academy degli Osservatori Digital Innovation del Politecnico di Milano, a cui hanno preso parte oltre 60 CIO, Security Manager e Responsabili Area Legal.

Un primo elemento emerso è che il regolamento GDPR non vale per gli accordi di trasferimento di dati personali verso Paesi terzi e organizzazioni internazionali, conclusi prima dell’entrata in vigore del Regolamento. Tali accordi resteranno in vigore fino alla loro sostituzione, revoca o modifica, così come i provvedimenti dell’Autorità Garante e le decisioni della Commissione UE. Inoltre, rispetto ai trattamenti ancora in corso al 25 maggio 2018, non è necessario che l’interessato presti nuovamente il suo consenso, se questo è stato espresso secondo modalità conformi alla nuova disciplina.

Anche se le aziende hanno a disposizione un anno per potersi adeguare, alcune novità del GDPR impongono un’attenta pianificazione fin da subito, potendo comportare modifiche organizzative significative e investimenti di natura tecnologica. Inoltre il GDPR rovescia completamente la prospettiva della disciplina di riferimento, istituendo un quadro normativo tutto incentrato sui doveri e la responsabilizzazione del Titolare del trattamento (principio di “accountability). La nuova disciplina impone a tale soggetto di garantire il rispetto dei principi in essa contenuti, ma anche di essere in grado di comprovarlo, adottando una serie di strumenti che lo stesso GDPR indica.

In primisil registro delle attività di trattamento, che deve contenere una serie di informazioni, tra cui le finalità del trattamento, la descrizione delle categorie di interessati e di dati personali che vengono trattati, oltre che l’indicazione delle misure di sicurezza adottate. La tenuta del registro costituisce un adempimento di fondamentale importanza nell’ottica del principio di accountability, in quanto permette di monitorare in maniera approfondita le operazioni di trattamento all’interno dell'organizzazione. Esso costituisce dunque sia uno strumento operativo di lavoro con cui censire in maniera ordinata le banche dati e gli altri elementi rilevanti per assicurare un sano “ciclo di gestione” dei dati personali, sia un vero e proprio documento di carattere probatorio mediante il quale il Titolare del trattamento può dimostrare di aver adempiuto alle prescrizioni del Regolamento.

A tal fine, può risultare utile indicare nel registro una serie di elementi non espressamente imposti dall’art. 30 del GDPR, ma comunque importanti per tener traccia delle operazioni di trattamento effettuate. Tra questi, ad esempio, la base giuridica del trattamento(ricompresa tra gli elementi che devono essere contenuti nell’informativa da consegnare all’interessato), o gli applicativi e/o database utilizzati, la cui elencazione può risultare necessaria per mappare con esattezza le misure di sicurezza implementate/da implementare, oltre che per condurre efficacemente la valutazione dei rischi.

Quest’ultima assume carattere imprescindibile per poter stabilire quali misure tecniche e organizzative adottare in azienda per garantire un livello di sicurezza appropriato al rischio stesso. La nuova normativa, infatti, abbandona il concetto di “misure minime” del Codice Privacy, sostituendolo con quello di “misure adeguate”. Tale maggiore discrezionalità, tuttavia, è accompagnata, come sopra precisato, dall’onere in capo al Titolare del trattamento di poter dimostrare le ragioni che hanno portato a una determinata decisione.

Titolare del trattamento che potrà nominare un Data Protection Officer (DPO), ovvero una figura specialistica e altamente qualificata che supporti l’applicazione degli obblighi della nuova normativa, e funga da punto di contatto con le Autorità di controllo e gli interessati. La designazione del DPO è obbligatoria solo in alcuni casi (trattamenti effettuati su larga scala, posti in essere da un’Autorità pubblica/organismo pubblico, o che ricomprendono categorie particolari di dati personali). Tuttavia costituisce una buona prassi anche per le aziende che sarebbero esenti da tale adempimento.

In sostanza, l’ampio spettro di novità introdotte dal GDPR impone di definire un piano di adeguamento alla nuova normativa, coinvolgendo le diverse funzioni aziendali coinvolte in operazioni di trattamento di dati personali. È fondamentale sfruttare appieno il periodo transitorio a disposizione, per garantire la conformità alle nuove disposizioni entro il 25 maggio 2018.

 

Il primo passo quindi, nonché quello di maggiore rilevanza, è definire il registro dei trattamenti e il piano di adeguamento al GDPR. Questa fase prevede l’assessment del modello attuale dell’organizzazione, al fine di definire un piano di azioni opportunamente dettagliate e calate sulla realtà aziendale.

Data l’ampiezza del perimetro di impatto del GDPR a livello aziendale, mappare il modello attuale e identificarne in modo esaustivo i gap, in relazione a quanto richiesto dal Regolamento, richiede un approccio strutturato e comprensivo di tutte le leve su cui è possibile agire in relazione all’obiettivo di adeguamento, quali:

  • Organizzazione e ruoli. Definizione e formalizzazione del modello organizzativo, dei ruoli e delle relative responsabilità all’interno dell’azienda, in relazione all’indirizzo e alla gestione dei temi legati alla Privacy.
     
  • Persone, cultura e competenze. Progettazione e diffusione della cultura della protezione dei dati e delle policy di sicurezza all’interno dell’organizzazione, attraverso attività di formazione e sensibilizzazione.
     
  • Processi e regole. È senza dubbio una delle aree più impattate dalle richieste di adeguamento del GDPR, basti ricordare la Privacy by design, la portabilità dei dati, la gestione dei data breach, la gestione del registro dei trattamenti, la gestione dei diritti degli interessati. Sono solo alcuni dei processi richiesti dal Regolamento che dovranno essere disegnati, implementati e presidiati nell’organizzazione.
     
  • Documentazione. Definizione delle procedure del manuale di gestione della data protection, aggiornamento dei contratti con le terze parti, adeguamento e/o stesura della documentazione di base quali informative, moduli di consenso, lettere di nomina, ecc.
     
  • Tecnologia e strumenti. Area di rilevante importanza - tipicamente anche dal punto di vista di investimenti da prevedere in ottica di piano di adeguamento - in ambito di misure di sicurezza informatica (antivirus, disaster recovery, firewall, pseudonimizzazione dati, cifratura dati, prevenzione e rilevazione data breach, Identity Management, ecc.), di sicurezza fisica (es. controllo accessi), di adozione di tool IT GRC (Governance, Risk & Compliance).
     
  • Sistema di controllo. Progettazione e gestione di un cruscotto di KPI per il monitoraggio della compliance a normative esterne (es. GDPR), regolamenti interni, progettazione di reportistica ad hoc da condividere a vari livelli dell’organizzazione.
     

L’individuazione strutturata dei gap è necessaria per poter definire e prioritizzare le attività del piano di adeguamento, che guiderà l’organizzazione nel processo di compliance.

Oltre all’adottare un metodo strutturato nell’avvio e nella gestione del progetto, fattori critici di successo per il piano di adeguamento e la sua implementazione sono:

  • Avvio e mantenimento di un tavolo di lavoro congiunto comprensivo degli attori principali (Compliance, IT, Legale, Sicurezza), a garanzia di un allineamento completo e costante su attività svolte, priorità e piano di adeguamento aziendale.
     
  • Ingaggio, sensibilizzazione e coordinamento dei referenti di Business in fase sia di assessment sia di implementazione delle azioni.
     
  • Comunicazione e conduzione dell’adeguamento al GDPR come una opportunità di tutta l’organizzazione di creare cultura e sensibilizzare rispetto alla privacy e alle policy di sicurezza e, sfruttando la fase di mappatura, possibilità di realizzare sinergie nell’indirizzo di altre compliance (es. D. Lgs. 231), nonché di arricchire la knowledge base aziendale (es. mappa processi, mappa applicativi), integrando opportunamente il registro dei trattamenti.
     

L’adeguamento al GDPR può essere approcciato in diversi modi. Sta all’azienda scegliere se adeguarsi in senso stretto o cavalcare l’opportunità per creare valore per l’organizzazione nel suo complesso. Non può però sfuggire che il dato personale di clienti, dipendenti e soggetti diversamente coinvolti nel ciclo produttivo e commerciale dell’azienda sia un asset fondamentale per la trasformazione digitale del business e le opportunità che ne possono derivare.

 

 

 

I 6 buoni motivi sul perché utilizzare al meglio ERP in Cloud by luca nogara

  1. Mette ordine al tuo lavoro e semplifica l'emissione delle fatture
  2. Ti informa quando le tue fatture vengano consegnate e scaricate dai tuoi clienti
  3. Sollecita i clienti in automatico quando le fatture arrivano a scadenza
  4. Permette al tuo commercialista di accedere direttamente alle tue informazioni e ridurre cosi la possibilità di errori legati allo scambio delle informazioni
  5. Ti aiuta a ricordare e trovare le informazioni in modo rapido e intuitivo ogni volta che ne hai bisogno
  6. Ti libera dai backup o da altri problemi tecnici, perché nel CLOUD i tuoi documenti sono al sicuro da virus e perdite accidentali, e disponibili in ogni momento anche quando sei fuori ufficio

 

Tutto il Cloud che ti serve chiedilo a noi by luca nogara

Scegli il servizio Cloud che fa per te

 

100% ITALIANO:  

Tutti i CLOUD CENTER di ReeVo sono in Italia

GARANZIA 99.98%

Ti garantiamo il servizio al 99,98% per contratto: penali chiare e presenti nello SLA

SUPPORTO TOTALE

Sei sempre assistito: prima, dopo e durante la migrazione

PAY PER USE

La soluzione che scegli è flessibile e scalabile, paghi solo quello che ti serve e quando ti serve

 

 

 

 

Dematerializzazione, anzi conservazione digitale dei documenti: le normative e i vantaggi in Italia by luca nogara

 

La dematerializzazione dei documenti non solo permette di risparmiare sulla carta, sull'inchiostro e sulle ore di lavoro delle persone che vanno e vengono dalle stampanti agli archivi e viceversa. È l'integrazione digitale a permettere di lavorare più efficacemente, aumentando la produttività individuale e aziendale

abstract - fonte www.digital4.biz - puoi trovare l'articolo originale qui

In un mondo in cui la metà del nostro tempo la passiamo a guardare informazioni on line da qualsiasi dispositivo, parlare di gestione cartacea dei documenti sembra quasi un paradosso. Eppure, a dispetto di una digitalizzazione sempre più spinta, il mondo analogico rappresenta ancora un'entità immane di archivi e scaffali pieni di carta.

Alla luce delle tecnologie oggi disponibili, la gestione documentale tradizionale oggi è senza dubbio un processo irrazionale: scrivere, stampare, firmare, vidimare, spedire, fotocopiare/scansionare, archiviare, recuperare sono tutte attività che non solo richiedono tempo e risorse, ma sono anche soggette a un tasso di errore elevato.

Insomma, i vantaggi della dematerializzazione dei documenti sono ormai chiari a tutti.  La gestione digitale non solo permette di risparmiare sulla carta, sull'inchiostro e sulle ore di lavoro delle persone che vanno e vengono dalle scrivanie alle stampanti, dagli archivi alle scrivanie, ma permette agli impiegati di lavorare più velocemente e più efficacemente, aumentando la produttività individuale e aziendale. Non a caso nel 2016 il 40% degli investimenti delle aziende italiane sarà finalizzato a progetti di digitalizzazione e dematerializzazione (Fonte: Osservatori Digital Innovation 2015 - Politecnico di Milano).

 

Big Data analytics: uno strumento efficace anche per la sicurezza dei dati by luca nogara

 

Il 53% delle aziende che fanno uso di Big Data Analytics segnala un elevato beneficio in termini di business. Secondo il Business Application Research Center, le analitiche apportano un forte beneficio per il business e aiutano a migliorare la resilienza aziendale sul fronte della sicurezza informatica. Peccato che il livello di adozione sia ancora troppo basso

abstract - fonte www.digital4.biz - puoi trovare l'articolo originale qui

Gli esperti ritengono che le Big Data Analytics siano uno strumento utile per consentire alle aziende di diventare più resistenti di fronte ai crescenti attacchi informatici.

“Secondo un recente sondaggio - ha spiegato Carsten Bange, fondatore e managing director del Business Application Research Center -  il 53% delle aziende che fanno uso di Big Data Analytics segnala un elevato beneficio in termini di business,  il 41% ha dichiarato di aver ottenuto un beneficio moderata, mentre solo il 6% ritiene di aver registrato pochi vantaggi”.

L’impiego delle Big Data Analytics

Gli esperti sottolineano come l'adozione di  Big Data Analytics si possa definire ancora relativamente bassa in generale, ma non nel segmento delle aziende più mature, pari al 13% del campione intervistato.Di queste, oltre due terzi (il 68%) ha dichiarato di aver già adottato tecnologie avanzate di Big Data Analytics per la sicurezza, come per esempio le analisi di comportamento degli utenti. Nel restante 87%, invece, solo il 27% ha implementato tecniche di analisi del comportamento degli utenti.

Uno strumento utile per la sicurezza IT

Le analisi dei Big Data possono aiutare a migliorare la resilienza aziendale sul fronte della sicurezza informatica: tenendo traccia del comportamento degli utenti in tutti i sistemi informatici, per esempio, permettono di rilevare anomalie e scostamenti significativi dal comportamento normale che potrebbero rappresentare indizi di potenziali attività dannose.

“Poter identificare i modelli di comportamento non è di certo una novità - sottoliena Bange -,la maggior parte delle tecniche di analisi sono utilizzate da trenta o quarant’anni. Ora però siamo in grado di applicarle a insiemi di dati estremamente grandi e su più sistemi informatici. Occorre informare le aziende sul fatto che ora esiste una tecnologia in grado di sostenere questo tipo di analisi che possono rivelarsi molto utili nel campo della sicurezza IT”.

Che cos'è la Unified Communication & Collaboration? Sono tecnologie diverse che servono by luca nogara

I fornitori la chiamano Unified Communication and Collaboration ma, in realtà, la comunicazione unificata per la maggior parte delle aziende è un insieme di tecnologie diverse a supporto di esigenze diverse: dalla telefonia IP alla videocomunicazione, dall'instant messaging alle chat, dalla posta elettronica alle piattaforme di file sharing. I trend e i numeri in Italia

abstract - fonte www.digital4.biz - puoi trovare l'articolo originale qui

 

Che cosa è la Unified Communication and Collaboration? Non è una tecnologia, ma un'insieme di tecnologie. Soprattutto, è un modo di integrare l'innovazione digitale secondo un approccio che può davvero fare la differenza nella comunicazione intra e interaziedale.

L'UCC, infatti, è uno degli ultimi capitoli di quella digital transformation che ha coinvolto le aziende in un percorso di sviluppo a rilascio continuo. In estrema sintesi, la UCC è un'architettura di sistemi telematici che si avvale di mezzi diversi, fruiti attraverso un'unica interfaccia comune che consente di gestire in maniera coordinata il flusso di infomazioni (scritte, audio e video) che circolano dentro e fuori all'azienda.

Con l'avvento dei social media, infatti, la comunicazione integrata si è andata a potenziare ulteriormente, abbracciando i nuovi canali di condivisione inaugurati dai nuovi media collaborativi come, ad esempio, Skype a Whatsapp. Quali sono dunque le soluzioni che fanno parte dell'innovazione digitale che risponde alle tecnologie UCC?

Unified Communication and Collaboration: ubiqua, pervasiva e integrata

Nell'UCC convergono componenti diverse come l'Instant messaging (chat), la Telefonia IP, la videoconferenza così come altri strumenti di supporto complementari come la segreteria telefonica, l'e-mail, gli SMS o l'intramontabile fax. L’abitudine ad accedere e consultare in maniera indifferenziata le informazioni da dispositivi fissi e mobili, infatti, sta portando le aziende a ragionare di convergenza e le persone a vivere il lavoro in modalità bimodale: analogica e digitale. A contribuire a questa evoluzione sono senz’altro le soluzioni di collaborazione che oggi cortocircuitano fonia, connettività e sistemi di condivisione di file, immagini, audio e video in modalità sincronizzata (tramite File Sharing and Syncronization System). Gli analisti degli Osservatori Digital Innovation del Politecnico di Milano, ad esempio, hanno identificato i principali benefici dell'UCC, relativi a ciascuna dimensione, ovvero infrastrutture abilitanti, servizi applicativi, multicanalità di accesso, suddivisi in due macrocategorie:

  • Benefici tangibili associabili a indicatori misurabili come un risparmio dei costi di comunicazione o delle spese di viaggio, evidenziando quelli che sono stati effettivamente monetizzati (cioè tradotti in flussi finanziari)
  • Benefici intangibili o non direttamente quantificabili come, ad esempio, migliore gestione della conoscenza, miglioramento del clima aziendale, miglioramento della qualità relazionale