PMI

Guida alla gestione dei data breach secondo il regolamento GDPR sulla Data protection by luca nogara

Cosa fare in caso di violazioni di dati personali che possano compromettere le libertà e i diritti dei soggetti interessati? A chi rivolgersi? Come comunicarle? La risposta è nelle linee guida pubblicate dal Gruppo di lavoro del nuovo regolamento europeo sulla privacy

 

fonte:  digital4.biz  . l'articolo originale  qui

fonte: digital4.biz . l'articolo originale qui

 

A seguito dell’entrata in vigore del GDPR (Regolamento UE 2016/679 in materia di protezione dei dati personali), il Gruppo di lavoro Art. 29 si è più volte attivato per offrire indicazioni concrete e casi esemplificativi che potessero aiutare gli operatori coinvolti nel trattamento di dati personali a interpretare le disposizioni del Regolamento e a pianificare correttamente il loro adeguamento.

Si collocano in questo scenario le nuove linee guida del Gruppo di lavoro Art. 29 sul data breach (Guidelines on Personal data breach notification under Regulation 2016/679, adottate il 3 ottobre 2017).

Il GDPR disciplina il data breach prevedendo espressamente un obbligo di notifica e comunicazione in capo al titolare, in presenza di violazioni di dati personali che possano compromettere le libertà e i diritti dei soggetti interessati. L’approccio del Regolamento si differenzia nettamente da quello adottato della Direttiva 95/46/CE, che, al contrario, non dispone alcun obbligo generalizzato di notifica. Attualmente, anche il nostro ordinamento prevede un obbligo di notifica frammentario. In recepimento della normativa europea in materia di comunicazioni elettroniche, il Codice privacy ha introdotto uno specifico obbligo di notifica dei data breach esclusivamente per i fornitori di servizi di comunicazioni elettroniche accessibili al pubblico. In altri settori (dati biometrici, dossier sanitario e pubbliche amministrazioni) l’obbligo è stato prescritto attraverso puntuali provvedimenti del Garante privacy. Il nuovo Regolamento, invece, attribuisce alla notifica una funzione essenziale di tutela degli interessati ed estende tale obbligo alla generalità dei titolari di trattamento.

Il criterio dirimente per valutare la necessità di avviare una procedura di notifica è la probabilità che la violazione possa porre a rischio (per la notifica all’autorità) o ad elevato rischio (per la comunicazione agli interessati) le libertà e i diritti degli individui. Appurato il rischio conseguente dalla violazione, gli artt. 33 e 34 del GDPR indicano ai titolari i termini, le modalità, i contenuti e le deroghe della notifica e della comunicazione di data breach.

Le nuove linee guida integrano gli articoli citati e permettono di dare risposta ad una serie di quesiti la cui comprensione risulta di fondamentale importanza per la predisposizione di corrette procedure di notificazione.

Quando il titolare è ritenuto “a conoscenza” di una violazione?

L’art. 33 impone al titolare di notificare la violazione all’autorità di controllo entro 72 ore dal momento in cui ne viene a conoscenza. Il tempo di riferimento da cui iniziano a decorrere i termini della notifica viene individuato quindi nel momento in cui il titolare acquisisce consapevolezza dell’avvenuta violazione.

Nell linee guida, il Gruppo ritiene che debba considerarsi “a conoscenza” il titolare che abbia un ragionevole grado di certezza in merito alla verificazione di un incidente di sicurezza. È evidente che, in base alle specifiche circostanze, mentre alcune violazioni saranno facilmente rilevabili, per altre sarà necessario instaurare un’indagine più approfondita. In questi casi, durante la fase di investigazione, il titolare può essere considerato come privo di un grado di conoscenza tale da far scattare immediatamente l’obbligo di notifica. Ciò precisato, il Gruppo sottolinea che il diligente comportamento del titolare sarà in ogni caso valutato sulla base della sua tempestiva attivazione in caso venga informato di una possibile infrazione. La fase investigativa, quindi, non deve essere abusata per prorogare illegittimamente il termine di notifica.

A tale considerazione si legano le raccomandazioni del Gruppo sia con riferimento alla struttura organizzativa predisposta dal titolare, sia in merito al ruolo del responsabile del trattamento in caso di data breach. In primo luogo, il Gruppo raccomanda ai titolari di predisporre un piano di sicurezza che evidenzi le procedure organizzative interne da adottare nella gestione di eventuali violazioni e l’organigramma dei soggetti o dei livelli direttivi a cui è necessario fare riferimento per riportare l’accadimento.

In merito al responsabile, l’art. 33 dispone l’obbligo in capo a quest’ultimo di informare tempestivamente il titolare dell’avvenuta violazione. Interpretando questo assunto alla luce del rapporto che lega titolare e responsabile, il Gruppo evidenzia come, in linea di principio, il titolare debba considerarsi a conoscenza della violazione nel momento in cui il proprio responsabile ne sia venuto a conoscenza. Non deve quindi esistere alcuna dilazione temporale nelle comunicazioni tra titolare e responsabile, giacché questi viene considerato come estensione fisica dell’attività del titolare e fa perciò scattare automaticamente l’obbligo di notifica in capo al primo.

Su questo punto, le linee guida prospettano l’ipotesi che il responsabile, sulla base di specifica autorizzazione del titolare contrattualmente prevista, possa eseguire personalmente la notifica per conto di quest’ultimo. Ciò non toglie, è bene sottolinearlo, che le responsabilità nei confronti dell’autorità e degli interessati scaturenti dalla notifica o dalla sua mancanza, permangano in capo al titolare. In caso di negligenza, il responsabile potrà rispondere unicamente nei confronti del titolare.

Qual è l’autorità di controllo competente?

L’art. 33 dispone che la notifica debba essere effettuata all’autorità di controllo competente, a norma dell’articolo 55. A sua volta l’art. 55 prevede che ciascuna autorità di controllo è competente per l’esercizio dei compiti e dei poteri assegnatele sul territorio del proprio Stato membro. Dunque, se la violazione si verifica in un determinato Stato membro, sarà all’autorità garante di quello Stato che dovrà essere presentata apposita notifica.

Lo scenario si complica nei casi in cui il trattamento dei dati valichi i confini territoriali nazionali, cosicché una loro violazione possa compromettere i diritti e le libertà di cittadini situati in diversi Pasi membri. In questo caso, il Gruppo chiarisce che dovrà utilizzarsi il meccanismo delle “autorità capofila”, previsto dall’art. 56 del GDPR. Fermo restando quanto disposto dall’art. 55, in caso di trattamenti transfrontalieri di dati personali si considera autorità capofila (e dunque autorità di riferimento anche in caso di notifica di data breach) l’autorità garante situata nello Stato membro presso cui si trova lo stabilimento principale o l’unico stabilimento del titolare o del responsabile. Naturalmente, il titolare rimane libero di notificare la violazione a tutte le autorità degli Stati membri in cui ritiene possano esserci conseguenze pregiudizievoli per gli interessati ivi locati. Tuttavia risulterà compliant anche nel caso decida di eseguire la notifica solo con riferimento all’autorità capofila correttamente individuata. 

Le linee guida, peraltro, ricordano ai titolari che l’obbligo di notifica previsto dall’art. 33 del GDPR deve coordinarsi con ulteriori eventuali obblighi di notifica previsti da altri strumenti normativi. Per esempio, obblighi di notifica in caso di incidenti di sicurezza (categoria ampia che al suo interno ricomprende l’insieme delle violazioni di dati personali) sono presenti nel Regolamento e-IDAS per i fornitori di servizi fiduciari o nella Direttiva NIS per i fornitori di servizi essenziali e di servizi digitali. Dunque, se una società fornitrice di servizi certificati di firma elettronica riscontra una violazione di sicurezza, dovrà non soltanto notificare l’attività illecita alla propria autorità nazionale di riferimento ma, in caso siano coinvolti dati personali dei propri clienti e qualora ne ricorrano i presupposti, dovrà altresì darne riscontro all’autorità garante in materia di dati personali. 

 

Come devono comportarsi i titolari quando non dispongono di sufficienti informazioni sulla violazione?

La notifica ha la funzione di allertare l’autorità e consentire la predisposizione di misure di tutela immediate ai soggetti coinvolti. Elemento centrale della procedura di notificazione è quindi la sua tempestività.

Tuttavia non sempre il titolare, anche quando ha appurato con ragionevole certezza l’esistenza di una violazione, è già in possesso di tutti gli elementi utili per effettuare una descrizione completa ed esaustiva dell’infrazione. Il Gruppo di lavoro chiarisce come il GDPR, tenendo in considerazione la predetta possibilità, mette a disposizione del titolare alcune tecniche o modalità che permettono di bilanciare le esigenze di celerità del messaggio con quelle di una sua sostanziale accuratezza e completezza.

La prima tecnica è l’utilizzo dell’“approssimazione”. Il titolare che non sia ancora in grado di conoscere con certezza il numero di persone e di dati personali interessati dalla violazione può comunicarne in prima battuta un ammontare approssimativo, provvedendo a specificare il numero esatto a seguito di accertamenti.

Secondo strumento previsto dal Regolamento è la “notificazione in fasi”. In questo caso il titolare, per la complessità o estensione della violazione, potrebbe non essere in grado di fornire con immediatezza all’autorità tutte le informazioni necessarie. Potrà allora ottemperare agli obblighi di notifica comunicando, dopo una prima e rapida notifica di alert, tutte le informazioni per fasi successive, aggiornando di volta in volta l’autorità sui nuovi riscontri.

Infine, il Regolamento prevede la possibilità di effettuare una notifica differita, dopo le 72 ore previste dall’art. 33. È il caso in cui, per esempio, un’impresa subisca violazioni ripetute, ravvicinate e di simile natura che interessino un numero elevato di soggetti. Al fine di evitare un aggravio di oneri in capo al titolare e l’invio scaglionato di un numero elevato di notificazioni tra loro identiche, il titolare è autorizzato ad eseguire un’unica “notifica aggregata” di tutte le violazioni occorse nel breve periodo di tempo (anche se superi le 72 ore), purché la notifica motivi le ragioni del ritardo.

Quali sono le modalità di comunicazione all’interessato?

Accanto agli obblighi di notifica all’autorità di controllo, l’art. 34 prevede in capo ai titolari un obbligo di comunicazione agli interessati che consenta loro di attivarsi a tutela dei propri interessi.

Come evidenziato dal Gruppo di lavoro, i due obblighi sono innescati dal superamento di soglie di rischio differenti: è sufficiente un rischio semplice per far sorgere il dovere di notifica, mentre è necessario un rischio “elevato” per attivare quello di comunicazione.

L’adeguatezza di una comunicazione è determinata non solo dal contenuto del messaggio, ma anche dalle modalità di effettuazione. Le linee guida, sulla base dell’art. 34, ricordano che devono sempre essere privilegiate modalità di comunicazione diretta con i soggetti interessati (quali email, SMS o messaggi diretti). Il messaggio dovrebbe essere comunicato in maniera evidente e trasparente, evitando quindi di inviare le informazioni nel contesto di update generali o newsletter, che potrebbero essere facilmente fraintesi dai lettori. Inoltre, dovrebbe tenere conto di possibili formati alternativi di visualizzazione del messaggio e delle diversità linguistiche dei soggetti riceventi (es. l’utilizzo della lingua madre dei soggetti riceventi rende il messaggio immediatamente comprensibile).  

Anche in questo caso, il Regolamento è attento a non gravare i titolari di oneri eccessivi prevedendo che, nel caso la segnalazione diretta richieda sforzi sproporzionati, questa possa essere effettuata attraverso una comunicazione pubblica. Si sottolinea però che anche questo tipo di comunicazione deve mantenere lo stesso grado di efficacia conoscitiva del contatto diretto con l’interessato. Così, mentre può ritenersi adeguata la comunicazione fornita attraverso evidenti banner o notifiche disposte sui siti web, non lo sarà se questa sia limitata all’inserimento della notizia in un blog o in una rassegna stampa.

Come valutare il rischio conseguente a un data breach?

La corretta valutazione dei possibili rischi scaturenti da una violazione è un passaggio importante per un’efficiente gestione del data breach. L’analisi consente al titolare di individuare con prontezza adeguate misure per arginare o eliminare l’intrusione e di valutare la necessità di attivare le procedure di comunicazione e di notifica (che si ricorda si attivano solo al superamento di determinate soglie di rischio). Rispetto alla valutazione effettuata in sede di DPIA (Data Protection Impact Assessment), la valutazione di data breach persegue uno scopo più mirato. Nel primo caso, infatti, si valutano conseguenze potenziali nel caso si verifichi un’ipotetica violazione. Nel caso di data breach, invece, il giudizio prognostico effettuato con il DPIA dovrà essere personalizzato avendo riguardo alle concrete circostanze della violazione. 

Le linee guida rappresentano in questo campo un utile ausilio alle complesse attività di assessment, in quanto forniscono una serie di fattori che i titolari devono tenere in primaria considerazione ai fini della valutazione. In particolare, le conseguenze della violazione varieranno a seconda di: tipo di violazione e natura dei dati violati (es. violazione di riservatezza, di accessibilità o di integrità dei dati; dati sanitari, documenti di identità o numeri di carte di credito); la facilità con cui potrebbero essere identificati gli interessati (es. l’aggressione riguarda dati identificativi o dati personali non direttamente identificativi; era previsto l’utilizzo di tecniche di pseudonimizzazione o crittografia); la gravità delle conseguenze sugli individui in termini di potenziali danni (es. i dati sono stati inviati erroneamente a un fornitore di fiducia o sono stati sottratti da un terzo sconosciuto); speciali caratteristiche e numero degli individui interessati (es. bambini o anziani; violazione massiccia o individuale); particolari caratteristiche del titolare (es. ambito di attività economico o sanitario; contatto frequente con dati sensibili).

Accertato il livello di rischio, il titolare sarà in grado di determinare la necessità o meno di eseguire la notifica all’autorità e la comunicazione agli individui interessati. A titolo esemplificativo, quindi, nel caso una media company perda il temporaneo accesso agli indirizzi email dei propri clienti a causa di un blackout, non sarà necessario procedere alla notifica dell’evento. Al contrario, la temporanea perdita di accesso ai dati sanitari dei pazienti di un ospedale, deve essere considerato un evento che pone a rischio (anche elevato) i diritti degli individui e dovrà perciò essere correttamente gestita ai sensi degli artt. 33 e 34 del GDPR.

Allo stesso modo, lo smarrimento di un CD o di una chiavetta USB contenente dati criptati indecifrabili da terzi, nel caso in cui la chiave crittografica sia nel possesso del titolare e questi possieda un backup di tali dati, potrebbe ritenersi non lesivo nei confronti degli interessati e quindi non obbligatoriamente notificabile. In caso invece la chiave crittografica non sia sicura o non esista un backup dei dati smarriti, sarà necessario attivare le procedure di notifica e comunicazione individuate. 

Cloud, smart data, competenze digitali: ecco su cosa devono puntare gli studi per ‘fare la differenza’ by luca nogara

Le professioni giuridiche d’impresa stentano a fare propri i nuovi paradigmi di business e organizzativi, mentre le aziende chiedono loro un supporto per ricevere servizi incisivi sul conto economico. Fornire le indicazioni sulle tendenze in atto è l'obiettivo della quarta edizione dell'Osservatorio Professionisti e Innovazione Digitale del Politecnico di Milano

fonte: digital4.biz - potete leggere l'articolo originale qui

Ormai è chiaro che la digitalizzazione non rappresenta più un’opzione di cui avvalersi, ma un obbligo a cui adeguarsi. Nessuno escluso: dalla Pubblica Amministrazione alle imprese fino ai singoli cittadini.

Ciò su cui si può discutere, semmai, è la velocità con cui si realizzerà il passaggio dall’analogico al digitale pervasivo. Le norme, che abbracciano via via nuove aree da digitalizzare, forniscono, comunque, un valido riferimento, soprattutto per il nostro Paese, che stenta ad appropriarsi spontaneamente dell’innovazione, in particolare di quella digitale.

Le professioni giuridiche d’impresa – avvocati, commercialisti e consulenti del lavoro – vicine più di altre al sistema produttivo, stentano, esse stesse, a interiorizzare nuovi paradigmi di business e organizzativi, da trasferire anche a livello culturale alla clientela aziendale. Poco meno di un terzo di questi professionisti rappresenta l’avanguardia che ha saputo cavalcare la tecnologia per proporsi con nuovi servizi ed elevati livelli di efficienza interna nella gestione delle attività tradizionali, sempre più oggetto di una riduzione della marginalità.

Il mondo dell’impresa chiede nuovi apporti alle professioni, che devono sempre più fornire servizi in grado di incidere sul conto economico delle imprese e non solamente far fronte agli obblighi di legge. Pur necessari, questi ultimi, infatti, non aiutano l’imprenditore a pagare gli stipendi dei dipendenti.

 

Il 7 luglio partirà la quarta edizione dell’Osservatorio Professionisti e Innovazione Digitale, proprio con l’intento di fornire nuove indicazioni sulle tendenze in atto tra gli studi professionali. Dopo aver esaminato nelle scorse edizioni lo status quo, individuato i trend evolutivi e segmentato gli studi in relazione ai loro comportamenti, adesso è la volta dei temi che possono aiutare gli studi a ‘fare la differenza’.

Verranno, perciò, presi in esami tre temi principali, con l’intento di rispondere ad alcune precise domande. Innanzitutto il Cloud Computing per cui si cercherà di comprendere quali sono le norme che oggi lo regolano il cloud computing, quali le accortezze da utilizzare con la sua adozione, come cambia l’organizzazione dello studio, quali modelli sono adatti a uno studio professionale, quali sono e quanto valgono i benefici economico-finanziari per uno studio che usa il cloud. Il secondo tema si riferisce a smart data e analytics: la nuova frontiera dei servizi digitali, che supera il concetto fisico del documento ma che si concentra sulla parte importante in esso contenuta: i dati. In particolare sarà oggetto d'analisi cosa significa per uno studio elaborare una strategia basata sugli smart data, quali strumenti occorrono, come individuare i dati smart, quali competenze e che benefici ci si può attendere. Infine c'è l'ambito delle competenze digitali, che punterà l'attenzione su quali competenze occorre sviluppare per gestire flussi di lavoro e l’organizzazione sempre più digitale e su quali sono le competenze utili a poter erogare servizi sempre più digital-based.

Il percorso sarà accompagnato dai sostenitori che da anni credono in questa iniziativa: i consigli nazionali, le loro fondazioni studi, il mondo associativo, i vendor di soluzioni tecnologiche e le aziende di servizi, i professionisti che, sempre più numerosi, ci seguono con interesse e forniscono il loro apporto di ‘vita vissuta’. Oltre ai due eventi finali, alcuni appuntamenti intermedi consentiranno di confrontarsi sui temi della ricerca, incontrare esperti e ascoltare la storia di studi che hanno qualcosa di distintivo da comunicare.

PMI italiane, ecco le "priorità digitali": Business Intelligence, eCommerce, alleanze con le startup by luca nogara

Sale soprattutto nelle medie imprese la convinzione che la Digital Transformation non è solo tecnologia ma richiede anche una nuova cultura di collaborazione e innovazione. I benefici più attesi sono aumenti di produttività e riduzioni di costi. Un'indagine di TAG Innovation School, Cisco Italia e Intesa Sanpaolo su oltre 500 realtà con fatturato fino a 50 milioni

fonte: digital4.biz - potete leggere l'articolo originale qui

Parlare di Digital Transformation solo in termini di tecnologie è sbagliato, e questa consapevolezza è diffusa anche tra le piccole e medie imprese (PMI) italiane che, oggetto di una recente indagine di TAG Innovation School - la scuola del digitale di Talent Garden - con Cisco Italia e Intesa Sanpaolo, hanno messo al primo posto la cultura aziendale collaborativa come fattore che determinerà la loro capacità innovativa (se non addirittura la loro forza competitiva e sopravvivenza).

L’indagine, che ha coinvolto oltre 500 realtà imprenditoriali italiane con fatturato fino a 50 milioni di euro, mostra un quadro generale di maturità delle PMI, ormai consapevoli delle sfide che devono affrontare ma ancora troppo spesso ferme al bivio in attesa di capire come procedere. Se, come accennato, il 65% sa di dover intervenire sulla cultura aziendale orientandola verso approcci più collaborativi e di open innovation, il 61% degli intervistati vede nell’implementazione di strategie digitali (intese come la capacità di aprire - in tutto o in parte - il proprio business a opportunità mai esplorate prima) la sfida primaria e più ardua da affrontare. L’introduzione delle tecnologie abilitanti sembra preoccupare meno gli imprenditori anche se ben il 35% la affronta ancora come una sfida critica.

Riduzione dei costi e aumento della produttività i più forti impatti percepiti

Le aziende interpellate da TAG stimano che l’innovazione e la trasformazione digitale impatterà maggiormente sulla riduzione dei costi e l’aumento della produttività. Entrando nel dettaglio dei risultati emersi, 4 aziende su 5 ritengono che l’impatto di soluzioni innovative incida in maniera molto importante o addirittura fondamentale sul taglio dei costi mentre un altro 74% è convinto di poter ottenere significativi aumenti di produttività derivanti, ad esempio, da automazione e servizi in cloud

 

Al di là dei numeri, ciò che appare evidente da questi dati è che tra le PMI italiane vi è oggi una discreta consapevolezza di come la digitalizzazione dei processi possa incidere direttamente su efficienza ed efficacia della gestione aziendale. In realtà, analizzando a fondo i dati, la riflessione risulta valida solamente per le medie imprese mentre sembra ancora in salita il percorso delle imprese più piccole. Il 76% degli amministratori delegati intervistati dimostra una forte sensibilità rispetto alla necessità di essere aggiornati sui temi dell’innovazione digitale ma tale caratteristica/esigenza si attenua parecchio quando a parlare sono gli imprenditori che guidano aziende con fatturato sotto i 10 milioni: un'altra conferma della minor propensione da parte delle imprese più piccole a comprendere ed esplorare le possibilità offerte dall’innovazione digitale.

Priorità: Business Intelligence, Big data, alleanze con le startup

Nonostante le difficoltà nel trovare la propria strada e nel capire come esattamente iniziare un percorso di trasformazione digitale, quasi la metà delle PMI intervistate (il 48%) dichiara di essere attualmente impegnata nell’analisi e studio di nuove strategie di business legate al digitale. Cosa concretamente significhino tali “intenzioni” lo spiegano i numeri: il 42% delle PMI intervistate sta implementando sistemi decisionali basati su analisi di business intelligence (studio della concorrenza, analisi di mercato, ecc.) mentre un altro 21% cerca di sfruttare in modo più efficace i Big Data. A conferma di tale impegno anche le intenzioni di investimento delle PMI nell’arco dei prossimi tre anni: le partnership con le startup e le strategie basate sui Big Data giocano il ruolo più importante dato che entrambi sono obiettivi condivisi dal 39% delle PMI intervistate.

Spicca anche l'interesse verso i canali di vendita digitali: il 37% dichiara che i prossimi investimenti andranno sull’eCommerce. Scarso invece l'orientamento verso temi che sono in realtà molto dibattuti tra le imprese più grandi: cybersecuritysharing economy e realtà aumentata/virtuale sono qui rilevanti solo per un quinto del campione analizzato, ovvero rispettivamente 21%, 20% e 19%.

Mobile app aziendali in stallo: si torna ai siti responsive. Gartner spiega perché by luca nogara

Più del 25% delle aziende globali non ha pubblicato mobile app negli ultimi 12 mesi. Tra i motivi spicca la lentezza nello sviluppo, che spinge i manager delle line of business ad "aggirare" il dipartimento IT. Intanto si sentono già gli effetti dell’era post-app: a governare saranno bot, assistenti virtuali e wearable device

fonte: digitl4.biz - potete leggere l'articolo originale qui

Un quarto delle grandi aziende mondiali non ha messo in cantiere mobile app nell'ultimo anno. E le organizzazioni che lo hanno fatto, hanno distribuito una media di otto applicazioni mobili, un dato che è rimasto invariato se confrontato con il 2016. Lo rivela un recente studio firmato da Adrian Leow, research director di Gartner. Guardando alla media delle aziende interpellate (163 gli intervistati tra professionisti IT e business leader di grandi aziende presenti in Usa, Regione Emea, America Latina e area Asia/Pacific), pare che attualmente ci siano poco più di 2 applicazioni ad azienda in fase di sviluppo e circa 6/7 quelle in pianificazione per i prossimi 12 mesi.

Ma non dovevamo entrare nell’era dell’app economy?

“Molti team IT avranno ritardi significativi nel completamento delle fasi di sviluppo delle applicazioni aziendali, aumentando di conseguenza il rischio che le line of business (LOB) aggirino l’IT stesso per ottenere risposte più rapide”, è il primo commento di Leow. “È ormai tempo che questi team ridefiniscano le loro priorità ed estendano il controllo e la pianificazione anche sulle app per dispositivi mobili altrimenti i rischi di erosione dei budget IT e la perdita di valore del dipartimento IT si innalzeranno ulteriormente”.

È finito il tempo delle mobile app native?

Analizzando in dettaglio i numeri relativi alle previsioni delle aziende, “è incoraggiante vedere una crescita significativa del numero di applicazioni mobili che sono ‘in lavorazione’ o previste per i prossimi mesi - commenta Leow - ma è sconfortate notare come la maggior parte della crescita la registreranno applicazioni web fruibili anche da dispositivi mobili (cioè applicazioni web responsive) e non mobile app native. Significa che molte aziende, frustrate dallo sviluppo di app mobili, si stanno rifocalizzando sui siti responsive per rispondere alle esigenze Mobile"

 

Ma c’è un’altra interessante chiave di lettura che emerge dall’indagine di Gartner: il 52% degli intervistati afferma di aver intrapreso percorsi di esplorazione o addirittura adozione di bot, chatbot e assistenti virtuali all’interno dei processi di sviluppo di mobile app, un quadro singolarmente molto innovativo considerando la natura piuttosto giovane di queste tecnologie.

È l’era post-app, ma c’è ancora qualche barriera da superare

Il fenomeno viene “classificato” dalla società di analisi americana come era delle post-appche non va in contrapposizione né sostituisce l’app economy ma caratterizza un nuovo periodo storico dove le app tradizionali - scaricabili da un app store e installate sui device mobili - rappresenteranno solo una parte delle funzionalità e dei servizi che potranno essere erogati agli utenti mobili (attraverso vari sistemi IoT, wearable device nonché bot e assistenti virtuali stessi).  

Le prospettive sembrano rosee ma ci sono ancora alcune barriere da superare, avverte Leow. Secondo lo scenario che emerge dall’indagine condotta alla fine del 2016, infatti, la mancanza di budget, le lacune nelle competenze degli sviluppatori e il poco tempo a disposizione rappresentano ancora barriere molto diffuse e impediscono che si “faccia il salto” verso uno sviluppo applicativo più efficace. Tra gli altri limiti rilevati, anche la difficoltà di trarre benefici economici diretti dal rilascio delle applicazioni mobile, criticità che però Leow attribuisce alla “mancanza di comprensione delle esigenze del cliente da parte dei team di sviluppo”.

L’analisi di Leow non si ammorbidisce nemmeno quando entra nel dettaglio della spesa IT e di come questa viene allocata per lo sviluppo applicativo: “nonostante gli intervistati dichiarino nel 68% dei casi di prevedere un aumento della spesa per le mobile app, la media delle proporzioni ci dice che solo l’11% del budget totale dedicato al software viene destinato alle applicazioni mobili”.

In questo caso, il vecchio detto “tra il dire e il fare c’è di mezzo il mare’ sembra più che mai appropriata.

I 9 trend dell’IT nei prossimi mesi, secondo Gartner: tra edge computing, cloud, e Io by luca nogara

Gartner ha riassunto quali saranno le principali tendenze IT del 2017. Anche se non si tratta di argomenti del tutto nuovi, sarà la loro evoluzione ad avere un impatto significativo sui team IT e sui carichi di lavoro dei data center. La governance sarà in mano a 5 professionisti chiave

fonte: digital4.biz - puoi leggere l'articolo originale qui 

Data center interconnessi, invisibili, containerizzati, capaci di orchestrare l'evoluzione di una Internet of Things pervasiva. La governance sarà in mano a nuove figure chiave, sempre più specializzate nei vari cluster di pertinenza che caratterizzano lo sviluppo dei data center di domani, incentrati su chiavi di servizio sempre più sofisticate e performanti.

Quali sono le  tendenze che continueranno a definire il ruolo dei professionisti IT e le competenze che questi ultimi dovranno avere per gestire i data center del prossimo futuro?

Se ne è parlato ad Orlando lo scorso mese, in occasione dell'IT Operations Strategies and Solutions Summit di Gartner. Gli esperti hanno analizzato i top trend del 2017 in ambito IT per far luce su quali saranno gli elementi che avranno un impatto maggiore sugli operatori del settore.

1) I data center tradizionali scompariranno

I tradizionali data center on premise stanno diminuendo di giorno in giorno. Il motivo? Le leggi di mercato. Per le aziende oggi esistono delle alternative più efficienti ed economicamente convenienti. Gli analisti di Gartner hanno rilevato che oggi circa l'80% dei carichi di lavoro aziendali si esegue on premise e il restante 20% si trova sul cloud o su impianti esternalizzati, mentre entro il 2021 la percentuale dei workload eseguiti localmente scenderà a circa il 20-25%, a tutto vantaggio delle soluzioni cloud e off-premise. Il concetto di data center as a service (DCaaS) ha guadagnato terreno poiché le imprese hanno spostato il proprio focus dall’infrastruttura alle applicazioni. Ma la scelta di cloud, outsourcing, SaaS, PaaS, risorse umane as a service e DCaaS non sono proposte poi così estreme. Gli esperti ritengono che un solo delivery model probabilmente non supporterà tutte le esigenze di un'organizzazione e che gli operatori, probabilmente, dovranno utilizzare diversi modelli per raggiungere diversi obiettivi.

2) I data center saranno interconnessi

La connettività è un elemento caratteristico della moderna tecnologia dei data center, ma la crescita del cloud e di altri servizi off-premise la metterà ancora più al centro dei processi operativi, utilizzando i collegamenti in fibra per la connettività ad alta velocità e di lunga distanza.

Secondo gli esperti, le interconnessioni future fonderanno data center e risorse in modo molto simile alle reti peer-to-peer. Questo metterà le prestazioni e la resilienza della connettività dei provider di cloud e software-as-a-service alla pari con le risorse  di calcolo e archiviazione  private on-premises, oltre a offrire flessibilità e agilità su scala più vasta.

3) I container cambieranno le applicazioni

I container continuano a essere una delle principali tendenze dell’IT aziendale. Questo perché consentono nuove forme di sviluppo e implementazione delle applicazioni che non sarebbero possibili persino con centri dati virtualizzati.

Mentre questo scenario rappresenta un terreno fertile per gli sviluppatori, ai professionisti IT richiede di implementare e supportare i container, oltre ad affrontare nuovi problemi di gestione relativi al loro utilizzo, come governance, licenza software e così via. Gli esperti evidenziano che per creare, monitorare, gestire e distruggere i container gli operatori devono garantire un'infrastruttura solida, organizzando e monitorando tutte le risorse utilizzate per farli funzionare.

 

4) L’IT, se saprà innovarsi, guiderà il business

I leader aziendali comprendono il ruolo svolto dai servizi IT in azienda e la loro importanza per il successo del business, ma gli analisti sottolineano come l’era dell’ IT in-house che dà ordini su applicazioni, servizi e tecnologie utilizzate dalle unità di business sia terminata. La rapida crescita del cloud pubblico, del SaaS e di altri servizi concorrenziali ha posto sulla difensiva i modelli IT  tradizionali: non c'è più bisogno di aspettare che l’IT possa valutare, raccomandare o distribuire servizi e carichi di lavoro quando esistono opzioni efficaci che possono essere impegnate più velocemente e con meno problemi nelle line of business.

Gartner fa notare come oltre il 20% della spesa IT aziendale, attualmente, sia  fuori dal controllo IT e come ciò rappresenti una sfida per l’IT che deve sapersi innovare e ripensare il suo ruolo di abilitatore di servizi e broker.

5) La stranded capacity dovrà essere identificata e ridotta

Il concetto di stranded capacity non è certo una novità, ma la velocità e l’agilità dai moderni modelli di calcolo rendono i problemi di sprawl molto più pronunciati e potenzialmente costosi. Gli analisti di Gartner hanno riferito che il 22% delle istanze di calcolo oggi sono invisibili, ovvero sono istanze che eseguono e consumano risorse, ma non forniscono alcun valore all'attività. Il 40% dei rack non è adeguatamente approvvigionato e i server eseguono solo il 32%. Tutto questo si traduce in sprechi di risorse, ovvero in costi inutili per l’organizzazione.

6) Internet of Things in emersione

L'internet delle cose è diventato rapidamente uno dei trend principali in ambito IT, grazie alla sua capacità di sfruttare enormi quantità di dati in opportunità mai viste prima sia per le vendite, il controllo e l'analisi dei processi. I dispositivi IoT possono velocizzare i tempi di vendita con funzionalità predefinite, elevata scalabilità, supporto per i fornitori e un ecosistema di fornitori abbastanza completo. Nonostante ciò, gli esperti notano che i dispositivi reali e gli stack di software utilizzati nelle distribuzioni IoT sono ancora in fase di definizione e che il settore soffre ancora della mancanza di uno standard.

7) I dispositivi remoti devono essere gestiti

L’Internet of Things richiede che i team IT gestiscano anche  i dispositivi remoti - le cose dell’internet, appunto!  - e ciò rappresenta una sfida logistica non da poco: significa occuparsi di installare, configurare, gestire, sostituire o ritirare ogni dispositivo remoto presente nell'ambiente.

8) Micro ed edge computing meritano attenzione

Invece di investire in una larghezza di banda di rete più costosa, molte organizzazioni impiegano risorse di calcolo su piccola scala e risorse di archiviazione più vicine alla posizione del lavoro effettivo: questa strategia è conosciuta come edge computing. Tuttavia, tali sforzi di elaborazione remota o pongono di fronte ai responsabili IT altri tipi di problemi, come la resilienza e la manutenzione. Le aziende devono pertanto considerare con attenzione i requisiti e le vulnerabilità di una piattaforma di calcolo remoto.

9) Guardare avanti verso i nuovi ruoli dell’IT: le 5 figure chiave della governance

Queste tendenze e la mutevole relazione tra business e IT hanno generato nuovi ruoli nel settore.

  1. Secondo gli esperti, per esempio, l’architetto dell’Internet of Things sarà colui il quale selezionerà e implementerà i componenti di un sistema IoT per garantire una corretta gestione e integrazione con altre infrastrutture e software di data center.
  2. Il cloud sprawl specialist, invece, monitorerà l'utilizzo delle risorse nel cloud pubblico e privato e applicherà politiche rivolte a ridurre al minimo gli sprechi. Lo strategy architect sarà la figura che esaminerà le infrastrutture esistenti e fornirà indicazioni per ottimizzarle, individuando le tecnologie necessarie per conseguire gli obiettivi aziendali.
  3. Uno specialista di capacità e risorse, invece, si occuperà di analizzare le risorse per il business con il fine di individuare, ove possibile, alternative a costi più accessibili.
  4. Gli esperti ritengono che alla figura del broker and provider specialist, invece, verrà demandato il compito di identificare i migliori servizi di business tra quelli offerti dalla gran quantità di potenziali fornitori per guidare l'azienda verso l’impiego di servizi convenienti capaci di integrarsi con altre piattaforme di business.
  5. Infine, un esperto di performance ed end-to-end si occuperà di application performance management per garantire che i carichi di lavoro operino con la massima efficienza e la soddisfazione degli utenti.

Data center in Italia? L'83% è in house, ma risorse e infrastrutture non sono più adeguate al business by luca nogara

Data center aziendali indispensabili ma anche concettualmente obsoleti. Lo staff IT occupa più tempo a gestire i contratti con i fornitori che a occuparsi dello sviluppo e della programmazione. Il cloud piace e interessa, ma c'è ancora molta paura per la business continuity. Tutti i numeri in una survey firmata NetworkDigital360

fonte: digital4.biz - puoi leggere l'articolo originale qui

Data center in Italia come cardine del business ma anche come asset sempre più critico. I dati parlano chiaro: a fronte di nuovi modelli tecnologici incentrati sul cloud e sulle logiche dell'As a Service e del Pay Per use, 8 aziende su 10 (83%) nel nostro Paese hanno ancora un data center in house, l'85% delle imprese ha bisogno di far evolvere l'infrastruttura IT in una chiave di maggiore razionalizzazione e agilità, quasi 7 aziende su dieci (69%) hanno uno staff sottodimensionato rispetto alle esigenze e ai compiti associati alla governance. 

lI vero problema dei data center in Italia, infatti, sono infrastrutture aziendali che non hanno seguito un modello di sviluppo programmato e oggi sono il risultato di una crescita molto più addizionale che strategica. Questo è il motivo per cui tutte le aziende confermano di avere necessità di cambiare, in un'ottica di forte rinnovamento delle macchine ma anche delle modalità di gestione dei servizi.

A rivelarlo una survey condotta da NetworkDigital360, in collaborazione con Dimension Data, su un campione di 280 aziende italiane di medie dimensioni (superiori a 250 dipendenti), operanti in vari settori industriali dal manufacturing (65%) al finance (10%), dal retail  (20%) al chimico-farmaceutico (4%).

Data center in Italia: voglia di evoluzione per quasi 9 aziende su 10

Gli analisti hanno sottolineato come per quasi nove aziende su 10 (85%) il motivo principale che sta spingendo la direzione a revisionare le infrastrutture ICT esistenti sia la volontà di razionalizzare un installato eterogeneo, costituito da sistemi legacy e nuove soluzioni che progressivamente sono entrate in azienda per rispondere rapidamente alla domanda delle diverse LOB che richiedono maggiore agilità e una velocità di servizio crescente. Il resto delle risposte fotografa segnali di evoluzione e di cambiamento in relazione allo sviluppo del business. La reingegnerizzazione dei data center italiani, infatti, è funzionale alla crescita dell'organizzazione interna (22%), ad acquisizioni/merge e dismissioni di rami d'impresa (15%), all'apertura di nuove filiali (12%), all'apertura di nuove business unit (10%) e all'internazionalizzazione legata a delocalizzazione o apertura di sedi estere (6%). Solo l'11% delle imprese dichiara di aver bisogno di rinovare le proprie infrastrutture per adeguarle alla compliance normativa.

 

Per più di 8 aziende su 10 il data center non è un servizio ma una proprietà

La volontà di sviluppare i servizi richiesti nel più rapido tempo possibile per garantire il time to market aziendale oggi spinge le imprese a rivedere la propria regia informatica. L’obbiettivo? Presidiare la governance integrando applicazioni e sistemi secondo criteri di centralizzazione e omogeneizzazione più efficaci e con economie più lungimiranti e sostenibili. La ricerca ha messo in luce ulteriori aspetti che aiutano a capire quali sono i limiti di un approccio più evoluto: l’83% delle imprese italiane considera ancora il data center come un bene, ovvero un asset rigorosamente proprietario. Meno di 1 azienda su 10 (8%) ha terziarizzato la complessità del data center affidandola a un provider specializzato e meno di 1 azienda su 10 (9%)  ha spostato il proprio approccio da un concetto di possesso a un concetto di puro servizio affidando a un cloud provider la gestione in toto delle proprie infrastrutture ICT. 

 

Grande interesse per il cloud

Alla domanda “Valutando la possibilità di una migrazione delle vostre infrastrutture in cloud, quali delle seguenti opzioni terreste più in considerazione?” gli analisti hanno registrato come il 35% delle aziende sia più propensa a scegliere un modello ibrido, il 33% un modello di cloud privato e il 20% un modello di cloud pubblico. 8 aziende su 10 scelgono la virtualizzazione mentre solo due aziende su 10 affermano di non essere minimamente interessate a spostare sulla nuvola le proprie infrastrutture, mentre un’azienda su dieci confessa di non aver ancora preso posizione. In realtà l'indagine evidenzia come ci siano ancora moltissimi freni rispetto all'uso più intensivo e strategico della nuvola. 

 

L’orientamento delle risposte suggerisce che le imprese italiane nutrono ancora diverse riserve nell’affidare la gestione delle proprie infrastrutture completamente all’esterno del tradizionale aziendale. Le risposte, in vario modo, sono quasi tutte legate al timore di interrompere la business continuity. Al primo posto delle criticità per quasi 6 aziende su 10 c’è la paura di intaccare la sicurezza aziendale (59%) seguita, praticamente a pari merito (58%), dalla scarsa fiducia rispetto alle garanzie di una connettività tale da garantire la business continuity erogata in cloud. La terza criticità, in ordine di spiegazione, è comunque correlata allo stesso tema: il timore di un’interruzione rispetto alla continuità operativa, indicata da quasi 5 aziende su 10 (49%). Per il 36% delle imprese la migrazione sulla nuvola delle proprie infrastrutture è frenata da problemi associati alla compliance, a pari merito con motivazioni legate alla paura di vedere aumentare i costi dell’As a Service. Per due aziende su 10 (20%), invece, il cloud è inaccessibile perché le infrastrutture sono troppo obsolete per consentire una gestione on demand.

Staff IT sempre più ...staffati. La risposta è nell'outsourcing

Al di là delle criticità legate alla gestione di server, storage e infrastrutture di rete fisiche e virtuali la survey ha messo in luce una grossa una grossa crisi interna allo staff ICT: quasi 7 aziende su dieci (69%) dichiara di essere sottodimensionato ma il 31% ha ovviato al problema grazie a risorse in outosurcing. La governance è ripartita tra chi si occupa di demand management (73%) che raccoglie informazioni dal business e le traduce in requisiti IT, una parte del personale (70%) che a causa della sempre più rapida obsoloscenza tecnologica dell’hardware e del software si occupa di gestire contratti diversificati con una molteplicità di fornitori per upgrade ed evolutive, personale prettamente tecnico e dedito allo sviluppo e alla programmazione (67%). A fronte di un 45% di aziende che non pensa di intervenire su un potenziamento dello staff IT, più di 3 aziende su 10 (33%) afferma che ricorrerà all'outsourcing mentre 1 azienda su 10 sta formando il proprio personale e 1 azienda su 10 provvederà al gap attraverso nuove assunzioni.

 

 

Advertising, è finito il tempo dell’integralismo digitale by luca nogara

Molte previsioni sul Marketing di pochi anni fa non si sono realizzate: la pubblicità televisiva non è affatto morta, e ci si è resi conto che lavorare in modo iper personalizzato non sempre ripaga. Oggi tradizione e innovazione convivono e per essere davvero distintivi serve focalizzarsi su creatività, capacità di raccolta e utilizzo dei dati, e assetti organizzativi coerenti. Il punto di Giuliano Noci, Ordinario di Marketing al Politecnico di Milano

fonte : digital4.biz. l'articolo originale del professor  Giuliano Noci

il Professor Giuliano Noci scrive:

Da più di 15 anni ormai mi occupo di analizzare e studiare i cambiamenti indotti dal cosiddetto mondo digitale nel mercato della pubblicità.
Lungo tutto questo periodo abbiamo registrato asserti e proclami, più o meno conclusivi, frutto di presunte certezze del momento; ad esempio, credo sia capitato a tutti voi sentire da autorevoli esponenti della comunità del marketing o di leggere che la pubblicità televisiva avrebbe subito un fenomeno di rilevante implosione, oppure che finalmente si sarebbe potuto fare comunicazione assolutamente personalizzata - diretta e mirata al singolo individuo - o ancora che il digitale sarebbe stato alla portata di tutte le imprese e avrebbe aperto opportunità di business a molteplici nuovi soggetti/ editori: la cosiddetta democrazia diretta della rete.
La progressiva diffusione di Internet, infatti, l’affermarsi progressivo dei device digitali - smartphone in primis - e gli stessi cambiamenti delle esperienze mediali degli individui – sintetizzabili nelle cosiddette 4M (Mobile, Multichannel, Multitasking, Multi-screen) - non hanno fin qui, nei fatti, confermato quelle certezze che sembravano dar corpo alle consapevolezze di cui sopra.

La TV non è morta: non solo perché si è evoluta profondamente (da mezzo di trasmissione lineare a oggetto in grado ormai di lavorare sia in logica push che pull sul fronte dei contenuti nonché della personalizzazione della proposta di contenuti) ma anche perché rappresenta ancora oggi lo strumento migliore e più efficace se si voglia lavorare in funzione di un obiettivo di riconoscibilità della marca.
Allo stesso modo, ci si è resi conto che lavorare in modo iper personalizzato (con segmenti di piccolissime dimensioni fino a collassare con il singolo individuo) non sempre ripaga; la fama aggiunge valore a un brand e per conquistarla è ancora oggi necessario/opportuno veicolare una comunicazione capace di catturare la pubblica immaginazione e, per questo motivo, è importante lavorare in una logica di broadcasting. Non si è d’altro canto rivelata tale proprio la cosiddetta democrazia della rete: ad oggi, Google e Facebook rappresentano un duopolio che raccoglie circa il 70% degli investimenti nella comunicazione digitale effettuati dalle imprese, determinando nei fatti condizioni di mercato non sempre trasparente. Questa considerazione ci porta a dire che fare comunicazione pubblicitaria oggi richiede la gestione integrata di tre dimensioni/leve: arte e scienza, su cui ci eravamo concentrati nel periodo pre-Internet e che abbiamo quasi dimenticato in questi anni; tecnologia - che invece negli ultimi anni sembrava essere obiettivo principe e assolutizzante qualsiasi scelta di comunicazione (il canale prima di tutto!).

Comunicare in logica display o contestuale: obiettivi diversi

Per meglio comprendere questa affermazione, dobbiamo cercare di mettere in fila alcuni aspetti che appaiono ora consolidati. Non mancano schermi e impressions attraverso i quali vengono veicolati messaggi pubblicitari. Vi è invece una carenza di connessioni di valore tra marca e individui e questa è la chiave - assolutamente tradizionale - attraverso la quale dobbiamo re-interpretare, in una prospettiva moderna, il modo di fare pubblicità oggi. In termini concreti, la possibilità di essere rilevanti richiede di costruire un’architettura di comunicazione integrata in cui la distinzione tra media tradizionali (TV) e canali digitali viene a cadere.
Non esiste infatti alcuna differenza sostanziale tra comunicazione veicolata tramite smart tv (ormai addressable) e banner veicolati via web/ mobile app; la vera differenza si ha tra l’attuazione di un programma di comunicazione in logica display e contestuale.

Nel primo caso, l’obiettivo è contribuire alla brand equity e quindi alla costruzione di legami emotivamente orientati con la customer base; un risultato che può essere ottenuto - tenendo conto delle caratterizzazioni specifiche dei differenti mezzi - attraverso la (smart) tv e/o i media digitali.
Questa prospettiva comunicativa va a lavorare, in altre parole, sui meccanismi di attenzione e memorizzazione selettiva che inducono un individuo a considerare una specifica marca nel consideration set in fase di acquisto.

Nel secondo caso, l’assunzione di fondo è che la comunicazione sia un’ambient activity, che deve tenere conto dello specifico contesto in cui l’individuo si trova, delle azioni che compie e della sua (geo) localizzazione nella prospettiva di ingaggiare l’individuo e quindi indurlo ad orientarsi verso l’acquisto (o spostarsi verso fasi più avanti del funnel di marketing).

 

Creatività, dati, organizzazione: la ricetta per fare Marketing oggi

In questa prospettiva, esiste nei fatti un unico spazio di comunicazione in cui convivono tradizione (comunicazione in logica push, diremmo pubblicità) e innovazione (comunicazione contestuale) e la cui progettazione richiede la contemporanea presenza di tre determinanti:

1) creatività: come abbiamo visto infatti il digitale non solo non toglie rilievo all’estro creativo tipico delle attività di comunicazione tradizionali ma per certi versi lo rafforza. La grande frammentazione comunicativa e la possibilità per gli individui di accedere ai contenuti in logica multiscreen e alla bisogna rendono ancora più rilevante la capacità di ingaggio da parte di una marca/impresa. Ovviamente molto diverso è sviluppare la creatività oggi: non esiste più una sola creatività dato un obiettivo/brief di comunicazione; sono spesso necessari sviluppi creativi differenti (ma consistenti rispetto all’obiettivo del piano) in ragione della necessità di tenere in conto delle specificità dei touchpoint e dei contesti di vita attraverso i quali si raggiunge la target audience deliberata;

2) capacità di raccolta e utilizzo dei dati: se è infatti vero che i dati non hanno potere di agire sull’immaginazione degli individui (e quindi di creare legami emotivi) è altrettanto importante considerare che giocano un’importanza fondamentale nel momento in cui si gioca la partita della comunicazione come ambient activity. La rilevanza dei dati è, in particolare, diretta conseguenza della necessità di acquisire rilevanza rispetto alla specifica contingenza in cui si trova l’individuo; una rilevanza che può essere conquistata solo conoscendo comportamenti di acquisto, interessi e decisioni di un individuo e, in questo senso, è il frutto di una significativa capacità di integrazione di silos informativi (differenti componenti del data warehouse aziendale, social network) da parte dell’impresa.

3) assetti organizzativi coerenti con i requisiti di una piattaforma comunicativa efficace. A questo proposito si guardi agli elementi chiave della progettazione organizzativa in ambito marketing. Occorre, in primis, essere consapevoli del fatto che non ha più alcun senso discriminare nell’organigramma aziendale tra unità di comunicazione tradizionale e quella digitale proprio in virtù dell’unicità percepita dal mercato con riferimento allo spazio di interazione tra individuo e impresa/marca. Appare sempre meno sostenibile la tendenza verso la frammentazione dei meccanismi di accesso ai servizi di comunicazione: all’aumentare del numero di agenzie/soggetti con cui si interagisce per la progettazione/implementazione di un piano di comunicazione, cresce il rischio di veicolare al mercato messaggi/comunicazioni incoerenti.

È infine rilevante - e scontato alla luce di quanto sopra evidenziato - che si innestino nell’organizzazione competenze di data intelligence.

Un posizionamento distintivo non può prescindere dal contesto

Abbiamo allora sbagliato tutto in questi quindici anni? No; abbiamo però vissuto lo sconquasso provocato da Internet con un eccesso di integralismo digitale. Ci siamo in parte dimenticati che la possibilità per un’impresa di creare valore economico è ancora frequentemente connessa con la sua capacità di affermare un posizionamento distintivo sul mercato (ce lo insegna Apple) e, in ragione di questo obiettivo, la marca deve ancora oggi diventare elemento/humus del contesto culturale in cui gli individui sono immersi.

Automazione dei processi d'acquisto, i consigli di Gartner per affrontare il cambiamento by luca nogara

Con la diffusione delle applicazioni Cloud e dei nuovi strumenti di machine learning, i prossimi tre anni saranno decisivi per l'eProcurement. Per arrivare preparate le aziende dovranno prima organizzare le informazioni e scegliere le giuste soluzioni con vendor e supplier

fonte: digital4.biz . potete leggere l'articolo originale qui 

Sono diversi i trend tecnologici che stanno attraversando, in maniera più o meno evidente, il mondo del Procurement. Secondo Gartner, da qui al 2020 assisteremo a una rivoluzione che ridefinirà molte delle abitudini consolidate e dei processi che caratterizzano oggi le attività di acquisto. Si parla naturalmente di e-invoicing, e-sourcing e supplier information management, che rappresentano alcuni degli strumenti già ampiamente diffusi, ma anche di approcci strategici guidati dall'introduzione di sistemi basati su Cloud e Artificial Intelligence.

Entro il prossimo triennio, prevede Gartner, più del 70% degli investimenti tecnologici su Procurement e processi di approvvigionamento sarà dedicato a soluzioni distribuite tramite la Nuvola, che pesa già per il 90% rispetto a tutte le nuove implementazioni Procure-to-Pay (P2P) nel settore privato come in quello pubblico. Alla ricerca di maggiore semplificazione, già a partire dal 2019 i vendor smetteranno di fornire portali orizzontali pre-confezionati capaci di supportare ciascuna delle interazioni coi partner della supply chain, in favore di una maggiore flessibilità delle applicazioni. Mentre dall'anno prossimo le piattaforme di P2P che tengono conto dei prezzi correnti riusciranno a garantire due volte i risparmi di quelle che non hanno questa capacità. Il futuro però non è tutto rose e fiori: secondo la società di consulenza, la modesta adozione di soluzioni all'avanguardia che ha contraddistinto il mondo del Procurement negli ultimi anni limiterà la penetrazione delle tecnologie smart (basate su machine learning e algoritmi ad hoc) al 10% del mercato potenziale.

 

Recuperare terreno si può, a patto di sposare una strategia “Cloud First”, che permette di accelerare l'intera organizzazione sul piano della digital transformation, allargando la vista sulle soluzioni disponibili sul mercato e migliorandone per questo l'accesso. Al tempo stesso è necessario valutare approfonditamente l'apporto che gli strumenti analitici (anche i più avanzati, come il già citato machine learning) possono fornire rispetto all'automazione e all'ottimizzazione dei processi, specialmente ora che il passaggio verso il paperless, secondo Gartner, ha superato il punto di non ritorno, integrando anche supporti tradizionalmente elettronici ma non strutturati, come per esempio le mail.

Prima di investire in nuove tecnologie, però, Gartner consiglia di consultare non solo i vendor, ma anche i fornitori chiave - oltre che una rappresentanza di supplier minori - per valutare insieme quale percorso di digitalizzazione può essere intrapreso e integrato più facilmente a tutto vantaggio del ROI dei soggetti coinvolti. Passo fondamentale, nel momento in cui si coinvolgono i partner per le implementazioni di soluzioni predittive avanzate è classificare e ordinare le informazioni e le serie storiche che saranno date in pasto ai nuovi sistemi. Allo stesso modo, nel momento in cui intendono potenziare il Contract Lifecycle Management (CLM) in questo senso, le aziende devono conoscere le basi per permettere agli applicativi P2P e ai virtual assistant, costruiti su tecnologie NLP (natural-language processing) di accedere ai file. Anche se dematerializzati, infatti, nel momento in cui i contratti si trovano in silos separati, i sistemi non possono accedervi per catturare, estrarre e processare i dati utili a costruire previsioni e insight. E tutto questo senza considerare il risk management e le difficoltà che comporta il trattamento e la condivisione di informazioni sensibili. Il futuro, dunque, è vicino (oltre che inevitabile), ma per raggiungerlo bisogna preparare attentamente la strada.

 

GDPR, tutto quello che vorreste sapere ma non avete osato chiedere sulla privacy by luca nogara

Il nuovo Regolamento UE sulla protezione dei dati personali sarà pienamente applicabile esattamente tra un anno, ma in molti casi richiede modifiche organizzative e investimenti in tecnologie tali da richiedere una pianificazione fin da subito. Ecco le novità più significative e gli elementi principali su cui impostare il programma di adeguamento

fonte: digital4.Biz   potete leggere l'articolo originale qui

Il General Data Protection Regulation (GDPR)ovvero il Regolamento UE n. 679/2016 sulla protezione dei dati personali (o Regolamento sulla privacy), è entrato in vigore Il 24 maggio 2016, ma diverrà pienamente applicabile dal 25 maggio 2018, abrogando la Direttiva 95/46/CE. Al tema recentemente è stato dedicato un Workshop della Digital Transformation Academy degli Osservatori Digital Innovation del Politecnico di Milano, a cui hanno preso parte oltre 60 CIO, Security Manager e Responsabili Area Legal.

Un primo elemento emerso è che il regolamento GDPR non vale per gli accordi di trasferimento di dati personali verso Paesi terzi e organizzazioni internazionali, conclusi prima dell’entrata in vigore del Regolamento. Tali accordi resteranno in vigore fino alla loro sostituzione, revoca o modifica, così come i provvedimenti dell’Autorità Garante e le decisioni della Commissione UE. Inoltre, rispetto ai trattamenti ancora in corso al 25 maggio 2018, non è necessario che l’interessato presti nuovamente il suo consenso, se questo è stato espresso secondo modalità conformi alla nuova disciplina.

Anche se le aziende hanno a disposizione un anno per potersi adeguare, alcune novità del GDPR impongono un’attenta pianificazione fin da subito, potendo comportare modifiche organizzative significative e investimenti di natura tecnologica. Inoltre il GDPR rovescia completamente la prospettiva della disciplina di riferimento, istituendo un quadro normativo tutto incentrato sui doveri e la responsabilizzazione del Titolare del trattamento (principio di “accountability). La nuova disciplina impone a tale soggetto di garantire il rispetto dei principi in essa contenuti, ma anche di essere in grado di comprovarlo, adottando una serie di strumenti che lo stesso GDPR indica.

In primisil registro delle attività di trattamento, che deve contenere una serie di informazioni, tra cui le finalità del trattamento, la descrizione delle categorie di interessati e di dati personali che vengono trattati, oltre che l’indicazione delle misure di sicurezza adottate. La tenuta del registro costituisce un adempimento di fondamentale importanza nell’ottica del principio di accountability, in quanto permette di monitorare in maniera approfondita le operazioni di trattamento all’interno dell'organizzazione. Esso costituisce dunque sia uno strumento operativo di lavoro con cui censire in maniera ordinata le banche dati e gli altri elementi rilevanti per assicurare un sano “ciclo di gestione” dei dati personali, sia un vero e proprio documento di carattere probatorio mediante il quale il Titolare del trattamento può dimostrare di aver adempiuto alle prescrizioni del Regolamento.

A tal fine, può risultare utile indicare nel registro una serie di elementi non espressamente imposti dall’art. 30 del GDPR, ma comunque importanti per tener traccia delle operazioni di trattamento effettuate. Tra questi, ad esempio, la base giuridica del trattamento(ricompresa tra gli elementi che devono essere contenuti nell’informativa da consegnare all’interessato), o gli applicativi e/o database utilizzati, la cui elencazione può risultare necessaria per mappare con esattezza le misure di sicurezza implementate/da implementare, oltre che per condurre efficacemente la valutazione dei rischi.

Quest’ultima assume carattere imprescindibile per poter stabilire quali misure tecniche e organizzative adottare in azienda per garantire un livello di sicurezza appropriato al rischio stesso. La nuova normativa, infatti, abbandona il concetto di “misure minime” del Codice Privacy, sostituendolo con quello di “misure adeguate”. Tale maggiore discrezionalità, tuttavia, è accompagnata, come sopra precisato, dall’onere in capo al Titolare del trattamento di poter dimostrare le ragioni che hanno portato a una determinata decisione.

Titolare del trattamento che potrà nominare un Data Protection Officer (DPO), ovvero una figura specialistica e altamente qualificata che supporti l’applicazione degli obblighi della nuova normativa, e funga da punto di contatto con le Autorità di controllo e gli interessati. La designazione del DPO è obbligatoria solo in alcuni casi (trattamenti effettuati su larga scala, posti in essere da un’Autorità pubblica/organismo pubblico, o che ricomprendono categorie particolari di dati personali). Tuttavia costituisce una buona prassi anche per le aziende che sarebbero esenti da tale adempimento.

In sostanza, l’ampio spettro di novità introdotte dal GDPR impone di definire un piano di adeguamento alla nuova normativa, coinvolgendo le diverse funzioni aziendali coinvolte in operazioni di trattamento di dati personali. È fondamentale sfruttare appieno il periodo transitorio a disposizione, per garantire la conformità alle nuove disposizioni entro il 25 maggio 2018.

 

Il primo passo quindi, nonché quello di maggiore rilevanza, è definire il registro dei trattamenti e il piano di adeguamento al GDPR. Questa fase prevede l’assessment del modello attuale dell’organizzazione, al fine di definire un piano di azioni opportunamente dettagliate e calate sulla realtà aziendale.

Data l’ampiezza del perimetro di impatto del GDPR a livello aziendale, mappare il modello attuale e identificarne in modo esaustivo i gap, in relazione a quanto richiesto dal Regolamento, richiede un approccio strutturato e comprensivo di tutte le leve su cui è possibile agire in relazione all’obiettivo di adeguamento, quali:

  • Organizzazione e ruoli. Definizione e formalizzazione del modello organizzativo, dei ruoli e delle relative responsabilità all’interno dell’azienda, in relazione all’indirizzo e alla gestione dei temi legati alla Privacy.
     
  • Persone, cultura e competenze. Progettazione e diffusione della cultura della protezione dei dati e delle policy di sicurezza all’interno dell’organizzazione, attraverso attività di formazione e sensibilizzazione.
     
  • Processi e regole. È senza dubbio una delle aree più impattate dalle richieste di adeguamento del GDPR, basti ricordare la Privacy by design, la portabilità dei dati, la gestione dei data breach, la gestione del registro dei trattamenti, la gestione dei diritti degli interessati. Sono solo alcuni dei processi richiesti dal Regolamento che dovranno essere disegnati, implementati e presidiati nell’organizzazione.
     
  • Documentazione. Definizione delle procedure del manuale di gestione della data protection, aggiornamento dei contratti con le terze parti, adeguamento e/o stesura della documentazione di base quali informative, moduli di consenso, lettere di nomina, ecc.
     
  • Tecnologia e strumenti. Area di rilevante importanza - tipicamente anche dal punto di vista di investimenti da prevedere in ottica di piano di adeguamento - in ambito di misure di sicurezza informatica (antivirus, disaster recovery, firewall, pseudonimizzazione dati, cifratura dati, prevenzione e rilevazione data breach, Identity Management, ecc.), di sicurezza fisica (es. controllo accessi), di adozione di tool IT GRC (Governance, Risk & Compliance).
     
  • Sistema di controllo. Progettazione e gestione di un cruscotto di KPI per il monitoraggio della compliance a normative esterne (es. GDPR), regolamenti interni, progettazione di reportistica ad hoc da condividere a vari livelli dell’organizzazione.
     

L’individuazione strutturata dei gap è necessaria per poter definire e prioritizzare le attività del piano di adeguamento, che guiderà l’organizzazione nel processo di compliance.

Oltre all’adottare un metodo strutturato nell’avvio e nella gestione del progetto, fattori critici di successo per il piano di adeguamento e la sua implementazione sono:

  • Avvio e mantenimento di un tavolo di lavoro congiunto comprensivo degli attori principali (Compliance, IT, Legale, Sicurezza), a garanzia di un allineamento completo e costante su attività svolte, priorità e piano di adeguamento aziendale.
     
  • Ingaggio, sensibilizzazione e coordinamento dei referenti di Business in fase sia di assessment sia di implementazione delle azioni.
     
  • Comunicazione e conduzione dell’adeguamento al GDPR come una opportunità di tutta l’organizzazione di creare cultura e sensibilizzare rispetto alla privacy e alle policy di sicurezza e, sfruttando la fase di mappatura, possibilità di realizzare sinergie nell’indirizzo di altre compliance (es. D. Lgs. 231), nonché di arricchire la knowledge base aziendale (es. mappa processi, mappa applicativi), integrando opportunamente il registro dei trattamenti.
     

L’adeguamento al GDPR può essere approcciato in diversi modi. Sta all’azienda scegliere se adeguarsi in senso stretto o cavalcare l’opportunità per creare valore per l’organizzazione nel suo complesso. Non può però sfuggire che il dato personale di clienti, dipendenti e soggetti diversamente coinvolti nel ciclo produttivo e commerciale dell’azienda sia un asset fondamentale per la trasformazione digitale del business e le opportunità che ne possono derivare.

 

 

 

I 6 buoni motivi sul perché utilizzare al meglio ERP in Cloud by luca nogara

  1. Mette ordine al tuo lavoro e semplifica l'emissione delle fatture
  2. Ti informa quando le tue fatture vengano consegnate e scaricate dai tuoi clienti
  3. Sollecita i clienti in automatico quando le fatture arrivano a scadenza
  4. Permette al tuo commercialista di accedere direttamente alle tue informazioni e ridurre cosi la possibilità di errori legati allo scambio delle informazioni
  5. Ti aiuta a ricordare e trovare le informazioni in modo rapido e intuitivo ogni volta che ne hai bisogno
  6. Ti libera dai backup o da altri problemi tecnici, perché nel CLOUD i tuoi documenti sono al sicuro da virus e perdite accidentali, e disponibili in ogni momento anche quando sei fuori ufficio

 

E’ arrivato il regolamento europeo della Privacy. La tua azienda è pronta? by luca nogara

 ICT4Innovation può aiutare le aziende e le organizzazioni ad affrontare i nuovi requisiti

 

In data 14 aprile 2016 è stato approvato il Regolamento Europeo che in Italia sostituirà il Codice Privacy.
Il Regolamento entra in vigore entro 45 giorni dalla data di approvazione e le aziende avranno due anni di tempo per adeguarsi. Il regolamento sarà immediatamente esecutivo e quindi non richiederà la necessità di recepimento da parte degli Stati membri.
L’entrata in vigore di questo Regolamento permetterà che le stesse direttive siano contemporaneamente in vigore in tutti gli stati membri UE uniformandoli sotto un unico codice.Il Regolamento introduce nuove tutele a favore degli interessati, e nuovi obblighi a carico dei Titolari.Il Regolamento Europeo avrà anzitutto gli obiettivi di garantire:

 

  • una maggiore protezione dei dati, anche alla luce delle sempre nuove tecnologie digitali utilizzate per il loro trattamento e conservazione, allo stesso tempo semplificando alcune procedure, evitando una eccessiva burocratizzazione;
  • una maggiore armonizzazione normativa a livello dell'intera UE, evitando palesi discrepanze nella gestione dei dati, le quali comportano attualmente un evidente danno e disorientamento per gli utenti.


Le aziende e le organizzazioni in genere, pubbliche e private, saranno chiamate a:

  • formare e nominare il "Data Protection Officer - DPO" (ossia il “responsabile della protezione dati”): obbligatorio per le aziende private con trattamenti di dati particolari, nonché in tutte le pubbliche amministrazioni. Ulteriori informazioni sono disponibili sul sito del garante privacy. Maggiori informazioni qui
  • eseguire il "data protection impact assessment", ossia effettuare una valutazione complessiva dell'impatto-privacy all’interno dell’azienda o della pubblica amministrazione, che permetta di applicare idonee misure di sicurezza tecniche e organizzative, secondo le definizioni del nuovo Regolamento;
  • tenere il registro delle attività di trattamento; riguarda le aziende con più di 250 dipendenti o quelle che trattano dati particolari, comprese quelle piccole che svolgono servizi in outsourcing quali responsabili del trattamento (ad es.: gli installatori di sistemi di videosorveglianza);
  • notificare all'Autorità competente ed agli stessi utenti le violazioni dei dati personali (così detti “data breach”), avvenute al proprio interno (es. accessi abusivi, usi non consentiti, perdita di una “chiavetta”), entro un termine rapidissimo (72 ore dalla scoperta della violazione).
  • applicare il principio generale denominato "privacy by design", cioè la necessità di tenere in debito conto la privacy durante tutto il ciclo di vita dei dati, già dal momento della progettazione di un prodotto o servizio;
  • consentire agli interessati il "diritto all’oblio", ossia la possibilità di decidere quali informazioni possano continuare a circolare (in particolare nel mondo on-line) dopo un determinato periodo di tempo, fatte salve specifiche esigenze (ad esempio, per rispettare obblighi di legge);
  • consentire agli interessati il diritto alla "portabilità del dato" (ad es. nel caso in cui si intendesse trasferire i propri dati da un soggetto giuridico ad un altro, come nel cloud computing).

 contattaci qui o chiamaci allo 0423 565517 per maggiori informazioni o per un risk assessment del tuo business

 

Che cos'è la Unified Communication & Collaboration? Sono tecnologie diverse che servono by luca nogara

I fornitori la chiamano Unified Communication and Collaboration ma, in realtà, la comunicazione unificata per la maggior parte delle aziende è un insieme di tecnologie diverse a supporto di esigenze diverse: dalla telefonia IP alla videocomunicazione, dall'instant messaging alle chat, dalla posta elettronica alle piattaforme di file sharing. I trend e i numeri in Italia

abstract - fonte www.digital4.biz - puoi trovare l'articolo originale qui

 

Che cosa è la Unified Communication and Collaboration? Non è una tecnologia, ma un'insieme di tecnologie. Soprattutto, è un modo di integrare l'innovazione digitale secondo un approccio che può davvero fare la differenza nella comunicazione intra e interaziedale.

L'UCC, infatti, è uno degli ultimi capitoli di quella digital transformation che ha coinvolto le aziende in un percorso di sviluppo a rilascio continuo. In estrema sintesi, la UCC è un'architettura di sistemi telematici che si avvale di mezzi diversi, fruiti attraverso un'unica interfaccia comune che consente di gestire in maniera coordinata il flusso di infomazioni (scritte, audio e video) che circolano dentro e fuori all'azienda.

Con l'avvento dei social media, infatti, la comunicazione integrata si è andata a potenziare ulteriormente, abbracciando i nuovi canali di condivisione inaugurati dai nuovi media collaborativi come, ad esempio, Skype a Whatsapp. Quali sono dunque le soluzioni che fanno parte dell'innovazione digitale che risponde alle tecnologie UCC?

Unified Communication and Collaboration: ubiqua, pervasiva e integrata

Nell'UCC convergono componenti diverse come l'Instant messaging (chat), la Telefonia IP, la videoconferenza così come altri strumenti di supporto complementari come la segreteria telefonica, l'e-mail, gli SMS o l'intramontabile fax. L’abitudine ad accedere e consultare in maniera indifferenziata le informazioni da dispositivi fissi e mobili, infatti, sta portando le aziende a ragionare di convergenza e le persone a vivere il lavoro in modalità bimodale: analogica e digitale. A contribuire a questa evoluzione sono senz’altro le soluzioni di collaborazione che oggi cortocircuitano fonia, connettività e sistemi di condivisione di file, immagini, audio e video in modalità sincronizzata (tramite File Sharing and Syncronization System). Gli analisti degli Osservatori Digital Innovation del Politecnico di Milano, ad esempio, hanno identificato i principali benefici dell'UCC, relativi a ciascuna dimensione, ovvero infrastrutture abilitanti, servizi applicativi, multicanalità di accesso, suddivisi in due macrocategorie:

  • Benefici tangibili associabili a indicatori misurabili come un risparmio dei costi di comunicazione o delle spese di viaggio, evidenziando quelli che sono stati effettivamente monetizzati (cioè tradotti in flussi finanziari)
  • Benefici intangibili o non direttamente quantificabili come, ad esempio, migliore gestione della conoscenza, miglioramento del clima aziendale, miglioramento della qualità relazionale