Cloud Computing

Data Protection: la valutazione di impatto prevista dal GDPR by luca nogara

Dal 25 maggio 2018, giorno di applicazione del nuovo regolamento UE sulla privacy, per la corretta gestione del trattamento e della sicurezza dei dati personali vanno valutati i rischi delle violazioni e le possibili conseguenze. Ecco cosa prevede il testo, appena approvato in via definitiva, relativo Data protection impact assessment” (DPIA)

fonte:  digital4.biz  . l'articolo originale  qui

fonte: digital4.biz . l'articolo originale qui

La data protection impact assessment (DPIA), la valutazione d’impatto in caso di violazione della Data Protection, è stata definita da Gruppo di Lavoro del GDPR (WP29) lo scorso 4 ottobre 2017 (qui il testo definitivo doc. WP248rev.01). Come ben noto agli “addetti ai lavori”, dal 25 maggio 2018, giorno di applicazione del GDPR, il Regolamento UE sulla data protection n. 2016/679, la corretta gestione del trattamento e della sicurezza dei dati personali dovrà tenere conto della DPIA.

Cos'è la Data protection impact assessment (DPIA) e quando è obbligatoria

Premettiamo sin da subito come la DPIA altro non sia che una valutazione preliminare degli impatti a cui andrebbe incontro un trattamento laddove dovessero essere violate le misure di protezione dei dati. Tale valutazione deve tenere in conto sia del grado di rischio che il trattamento possa presentare per i diritti e le libertà delle persone fisiche sia del grado di innovatività della tecnologia con cui viene effettuato il trattamento. In tal senso, una corretta DPIA, così come ribadito dal Gruppo di Lavoro, può essere utile per valutare l’impatto sulla protezione dei dati elaborati attraverso una particolare tecnologia, ad esempio una componente hardware o software.

Inoltre così come sottolineato dalle recenti Linee Guida nonché dal Garante per la Protezione dei Dati personali nella Guida all’applicazione del Regolamento europeo), una singola DPIA potrebbe essere utilizzata per valutare molteplici operazioni di trattamento che sono simili in termini di rischi presentati. Pertanto, compito del Titolare del Trattamento, utilizzando un “risk-based approach”, sarà quello (prima che i dati vengano trattati) di individuare, nello specifico, l’origine, la natura, la probabilità e la gravità del rischio, l’ambito di applicazione, il contesto e le finalità del trattamento stesso in quanto più è elevata la rischiosità del dato, più alte sono le conseguenze in termini d’impatto con l’interessato.

 

Ciò può consentire al Titolare, mediante anche la consultazione del Data Protection Officere dei responsabili del trattamento, di poter identificare le misure appropriate per minimizzare i rischi ed adottare costantemente (tenuto conto dello stato dell’arte) ogni misura tecnica, giuridica ed organizzativa in quanto una semplice variabilità del rischio potrebbe generare ulteriori attività da svolgere.

Le Linee Guida offrono ulteriori precisazioni tra cui, a titolo esemplificativo: un elenco di operazioni di trattamento di dati personali rispetto alle quali l’effettuazione della valutazioned’impatto deve ritenersi obbligatoria nonché un elenco di operazioni di trattamento rispetto alle quali la valutazione d’impatto non è necessaria; criteri comuni aventi ad oggetto sia la metodologia da adottare per l’effettuazione della valutazione d’impatto sia la definizione dei casi in cui è necessario consultare l’Autorità di controllo; raccomandazioni sulla base dell’esperienza acquisita negli Stati membri dell’UE.

 

GDPR: cosa c’è da sapere sulla profilazione di clienti e consumatori by luca nogara

25 maggio 2018 trattamento dei dati personali siti webdevono essere the eu stati membri gdpr general data protection regulation pubbliche amministrazionigenerale sulla protezione unione europea data breach propri dati personali by design tratta di dati partire dal 25 maggioviolazione dei dati titolare del trattamento regolamento ue 2016/679 sicurezza dei dat regolamento gdpr

Read More

Philip Kotler spiega il nuovo marketing: «L'unica via per la crescita» by luca nogara

Il più noto esperto mondiale, in Italia in occasione del Forum che porta il suo nome, ha tenuto una lezione sul futuro del marketing, sostenendo che «la formula per la crescita dell'economia e del business è data da “Innovazione + Marketing”», e che le note 4P (Product, Price, Place, Promotion) sono ormai soppiantate dalle 5C (Customers, Company, Collaborators, Competitors, Context). E ha descritto il CMO di oggi: orientato ai dati e al ROI

 

fonte:  digital4.biz  . l'articolo originale  qui

fonte: digital4.biz . l'articolo originale qui

Arrivato in Italia per partecipare all’ormai consueto appuntamento annuale con il Philip Kotler Marketing Forum (PKMF), Philip Kotler, il guru riconosciuto a livello mondiale come il più grande esperto di marketing, ha tenuto incollato il pubblico con oltre due ore di lezione e riflessioni sul futuro del marketing. Un futuro che vede il marketing elemento imprescindibile della formula che, insieme all’innovazione, rappresenta l’unica via possibile per la crescita del business, soprattutto nell’era digitale della new economy.

La centralità del consumatore spinge a ripensare il marketing in ottica lean

Luca Pellegrini, Docente Ordinario di Marketing presso la IULMA precedere l’intervento di Kotler è stato il Professor Luca Pellegrini, Docente Ordinario di Marketing presso la IULM – Libera Università di Lingue e Scienze della Comunicazione, il quale, ammettendo ironicamente di sentirsi «come un prete di paese che deve accogliere il Papa», ha detto di Kotler: «non è solo uno dei grandi nomi del marketing, è lo studioso che più ha contribuito a fare del marketing una disciplina e che da molti decenni la ripensa e ripropone con lucidità».

«La centralità assunta oggi dal consumatore, in un ambiente molto competitivo, ha spinto il marketing a essergli sempre più vicino, per mantenere un rapporto di empatia in grado di generare risposte coerenti ai suoi nuovi bisogni», ha proseguito Pellegrini. «Il tema del PKMF di quest’anno [R-evolution marketing, approccio manageriale che mira alla riduzione e al recupero degli sprechi nei processi aziendali – ndr] è ancora una volta la dimostrazione di quanto Kotler sia attento al cambiamento e a come tradurlo in comportamenti aziendali. Il tema del lean marketing risponde infatti alla necessità di garantire la sostenibilità dei processi di produzione, ma forse ancora di più a una richiesta di trasparenza, di autenticità e di schiettezza che nasce dal rapporto sempre più diretto tra le imprese e le persone attraverso la rete e i social media».

Marketing + innovazione, la formula per la crescita del business

Dando quindi una piccola anticipazione dei temi che Kotler ha poi approfondito a lungo nel corso del suo intervento, il professor Pellegrini ha introdotto il guru mondiale che ha esordito in modo molto diretto parlando di economia e business: «il capitalismo sta distruggendo la democrazia e l’economia: gli stipendi bassi non sono una risposta a produttività e marginalità perché per “far girare” l’economia serve denaro “in mano” ai consumatori che possono così spendere», ha tuonato Kotler.

«L’economia non riflette la realtà, lo fa il marketing. Il business cresce attraverso il valore ed il marketing è quella componente che aiuta ad esprimerlo nell’economia», è la lezione di Kotler sul palco di Milano. «Per esprimere la crescita del business (e dell’economia) c’è una formula: innovazione + marketing».

Una formula dove l’innovazione, ha spiegato Kotler, deve essere considerata come disciplina della creatività (ossia va controllata e guidata) e rappresentare «la capacità di creare qualcosa che abbia un valore per qualcun altro», ed il marketing calato in un contesto aziendale dove si possa modellare una organizzazione basata sul cosiddetto CCDV: create, communicate, deliver, value. «Soprattutto sul fronte “value” - è la considerazione di Kotler durante la sessione di domande moderata da Alberto Mattiacci, Professore di Economia e Gestione delle imprese Università La Sapienza e Presidente della Società Italiana Marketing - oggi il CMO dovrebbe lavorare a stretto contatto con il CFO, cosa che in realtà accade molto raramente».

La relazione tra CMO e CFO, spesso si riduce ad un mero “check” nel processo di definizione del prezzo di un prodotto o di un servizio che l’azienda dovrebbe immettere sul mercato, pilastro del modello di marketing basato sulle 4P (Product, Price, Place, Promotion) che però lo stesso Kotler ha definito obsoleto.

Il modello di marketing delle 4P è obsoleto: è ora delle 5C

«Molte persone pensano che il marketing sia lo strumento di supporto delle vendite, attraverso advertising e promozione», ha spiegato Kotler. «In realtà, il marketing permette di identificare i target ed il mercato ed è quella disciplina che attraverso l’analisi e il planning permette di “dare vita” al CCDV, cioè crea, comunica e rende disponibile ad una community un valore superiore. Il marketing aiuta l’azienda (non solo le vendite!) a scoprire nuove opportunità di mercato e di business, nonché a identificare i bisogni ed i desideri insoddisfatti di una determinata clientela».

Una visione che mette quindi definitivamente in cantina il vecchio modello delle 4P per lasciare spazio alle nuove teorie che vedono il marketing basarsi sui pilastri delle 5C: Customers, Company, Collaborators, Competitors, Context.

Il nuovo marketing: riduzione degli sprechi e valore della community

 

«Le aziende devono capire che nella digital era, nella new economy, anche il marketing deve evolvere partendo dal riconoscere che oggi qualunque tipo di comunicazione, ricerca, acquisto, condivisione passa attraverso uno smartphone», sono le considerazioni finali che Kotler fa sollecitato dal professor Mattiacci. «Le persone sono connesse a livello globale e possono essere influenzate in molti modi differenti, non più solo attraverso l’advertising».

Per le aziende significa poter accedere a una miriade di dati nuovi di cui un singolo utente lascia traccia attraverso differenti touchpoint (acquisti con carta di credito, richiesta di informazioni, ricerca sui motori di ricerca online, chat con help desk, conversazioni sui social media, ecc.). «È il momento degli Analytics 2.0 – dice Kotler – grazie ai quali poter collezionare, correlare, analizzare ed avere informazioni da grandissime moli di dati in real-time e avviare così strategie di marketing automation che tengano conto del contesto, delle abitudini, delle preferenze, delle conversazioni degli utenti».

Nella visione di Kotler, il lean marketing si concretizza con l’utilizzo corretto delle tecnologie che permettono di ottimizzare gli sforzi delle attività di marketing massimizzandone i risultati. In particolare, il CMO deve concentrare gli sforzi su questi pilastri:

  • mobility (ricordarsi che oggi i consumatori prendono decisioni e compiono azioni attraverso un unico oggetto, lo smartphone);
  • dati (non ci si può più limitare ai dati delle vendite, anche se analizzati in tempo reale; i dati a disposizione per prendere decisioni più accurate vanno cercati su tutti i canali che permettono ad un brand di comunicare, relazionarsi, interagire e ingaggiare un utente);
  • social network e community (sono i tasselli fondamentali per la comprensione dei desideri e delle aspettative dei clienti nonché per la loro fidelizzazione)
  • contenuti (l’advertising puro da solo non basta più, serve creare un senso di appartenenza negli utenti attraverso storie ed esperienze inclusive, emozionanti, capaci di attrarre e trattenere a sé un utente nonché mantenere elevata la reputazione del brand);
  • marketing automation (la componente tecnologica che meglio esprime il valore del lean marketing e la sua efficacia, strettamente connessa ai dati, senza i quali rimarrebbe un mero strumento e non una strategia di azione);
  • qualità del servizio (da sempre al centro delle strategie di marketing, con il consumatore al centro diventa elemento differenziante del business)

Guida alla gestione dei data breach secondo il regolamento GDPR sulla Data protection by luca nogara

Cosa fare in caso di violazioni di dati personali che possano compromettere le libertà e i diritti dei soggetti interessati? A chi rivolgersi? Come comunicarle? La risposta è nelle linee guida pubblicate dal Gruppo di lavoro del nuovo regolamento europeo sulla privacy

 

fonte:  digital4.biz  . l'articolo originale  qui

fonte: digital4.biz . l'articolo originale qui

 

A seguito dell’entrata in vigore del GDPR (Regolamento UE 2016/679 in materia di protezione dei dati personali), il Gruppo di lavoro Art. 29 si è più volte attivato per offrire indicazioni concrete e casi esemplificativi che potessero aiutare gli operatori coinvolti nel trattamento di dati personali a interpretare le disposizioni del Regolamento e a pianificare correttamente il loro adeguamento.

Si collocano in questo scenario le nuove linee guida del Gruppo di lavoro Art. 29 sul data breach (Guidelines on Personal data breach notification under Regulation 2016/679, adottate il 3 ottobre 2017).

Il GDPR disciplina il data breach prevedendo espressamente un obbligo di notifica e comunicazione in capo al titolare, in presenza di violazioni di dati personali che possano compromettere le libertà e i diritti dei soggetti interessati. L’approccio del Regolamento si differenzia nettamente da quello adottato della Direttiva 95/46/CE, che, al contrario, non dispone alcun obbligo generalizzato di notifica. Attualmente, anche il nostro ordinamento prevede un obbligo di notifica frammentario. In recepimento della normativa europea in materia di comunicazioni elettroniche, il Codice privacy ha introdotto uno specifico obbligo di notifica dei data breach esclusivamente per i fornitori di servizi di comunicazioni elettroniche accessibili al pubblico. In altri settori (dati biometrici, dossier sanitario e pubbliche amministrazioni) l’obbligo è stato prescritto attraverso puntuali provvedimenti del Garante privacy. Il nuovo Regolamento, invece, attribuisce alla notifica una funzione essenziale di tutela degli interessati ed estende tale obbligo alla generalità dei titolari di trattamento.

Il criterio dirimente per valutare la necessità di avviare una procedura di notifica è la probabilità che la violazione possa porre a rischio (per la notifica all’autorità) o ad elevato rischio (per la comunicazione agli interessati) le libertà e i diritti degli individui. Appurato il rischio conseguente dalla violazione, gli artt. 33 e 34 del GDPR indicano ai titolari i termini, le modalità, i contenuti e le deroghe della notifica e della comunicazione di data breach.

Le nuove linee guida integrano gli articoli citati e permettono di dare risposta ad una serie di quesiti la cui comprensione risulta di fondamentale importanza per la predisposizione di corrette procedure di notificazione.

Quando il titolare è ritenuto “a conoscenza” di una violazione?

L’art. 33 impone al titolare di notificare la violazione all’autorità di controllo entro 72 ore dal momento in cui ne viene a conoscenza. Il tempo di riferimento da cui iniziano a decorrere i termini della notifica viene individuato quindi nel momento in cui il titolare acquisisce consapevolezza dell’avvenuta violazione.

Nell linee guida, il Gruppo ritiene che debba considerarsi “a conoscenza” il titolare che abbia un ragionevole grado di certezza in merito alla verificazione di un incidente di sicurezza. È evidente che, in base alle specifiche circostanze, mentre alcune violazioni saranno facilmente rilevabili, per altre sarà necessario instaurare un’indagine più approfondita. In questi casi, durante la fase di investigazione, il titolare può essere considerato come privo di un grado di conoscenza tale da far scattare immediatamente l’obbligo di notifica. Ciò precisato, il Gruppo sottolinea che il diligente comportamento del titolare sarà in ogni caso valutato sulla base della sua tempestiva attivazione in caso venga informato di una possibile infrazione. La fase investigativa, quindi, non deve essere abusata per prorogare illegittimamente il termine di notifica.

A tale considerazione si legano le raccomandazioni del Gruppo sia con riferimento alla struttura organizzativa predisposta dal titolare, sia in merito al ruolo del responsabile del trattamento in caso di data breach. In primo luogo, il Gruppo raccomanda ai titolari di predisporre un piano di sicurezza che evidenzi le procedure organizzative interne da adottare nella gestione di eventuali violazioni e l’organigramma dei soggetti o dei livelli direttivi a cui è necessario fare riferimento per riportare l’accadimento.

In merito al responsabile, l’art. 33 dispone l’obbligo in capo a quest’ultimo di informare tempestivamente il titolare dell’avvenuta violazione. Interpretando questo assunto alla luce del rapporto che lega titolare e responsabile, il Gruppo evidenzia come, in linea di principio, il titolare debba considerarsi a conoscenza della violazione nel momento in cui il proprio responsabile ne sia venuto a conoscenza. Non deve quindi esistere alcuna dilazione temporale nelle comunicazioni tra titolare e responsabile, giacché questi viene considerato come estensione fisica dell’attività del titolare e fa perciò scattare automaticamente l’obbligo di notifica in capo al primo.

Su questo punto, le linee guida prospettano l’ipotesi che il responsabile, sulla base di specifica autorizzazione del titolare contrattualmente prevista, possa eseguire personalmente la notifica per conto di quest’ultimo. Ciò non toglie, è bene sottolinearlo, che le responsabilità nei confronti dell’autorità e degli interessati scaturenti dalla notifica o dalla sua mancanza, permangano in capo al titolare. In caso di negligenza, il responsabile potrà rispondere unicamente nei confronti del titolare.

Qual è l’autorità di controllo competente?

L’art. 33 dispone che la notifica debba essere effettuata all’autorità di controllo competente, a norma dell’articolo 55. A sua volta l’art. 55 prevede che ciascuna autorità di controllo è competente per l’esercizio dei compiti e dei poteri assegnatele sul territorio del proprio Stato membro. Dunque, se la violazione si verifica in un determinato Stato membro, sarà all’autorità garante di quello Stato che dovrà essere presentata apposita notifica.

Lo scenario si complica nei casi in cui il trattamento dei dati valichi i confini territoriali nazionali, cosicché una loro violazione possa compromettere i diritti e le libertà di cittadini situati in diversi Pasi membri. In questo caso, il Gruppo chiarisce che dovrà utilizzarsi il meccanismo delle “autorità capofila”, previsto dall’art. 56 del GDPR. Fermo restando quanto disposto dall’art. 55, in caso di trattamenti transfrontalieri di dati personali si considera autorità capofila (e dunque autorità di riferimento anche in caso di notifica di data breach) l’autorità garante situata nello Stato membro presso cui si trova lo stabilimento principale o l’unico stabilimento del titolare o del responsabile. Naturalmente, il titolare rimane libero di notificare la violazione a tutte le autorità degli Stati membri in cui ritiene possano esserci conseguenze pregiudizievoli per gli interessati ivi locati. Tuttavia risulterà compliant anche nel caso decida di eseguire la notifica solo con riferimento all’autorità capofila correttamente individuata. 

Le linee guida, peraltro, ricordano ai titolari che l’obbligo di notifica previsto dall’art. 33 del GDPR deve coordinarsi con ulteriori eventuali obblighi di notifica previsti da altri strumenti normativi. Per esempio, obblighi di notifica in caso di incidenti di sicurezza (categoria ampia che al suo interno ricomprende l’insieme delle violazioni di dati personali) sono presenti nel Regolamento e-IDAS per i fornitori di servizi fiduciari o nella Direttiva NIS per i fornitori di servizi essenziali e di servizi digitali. Dunque, se una società fornitrice di servizi certificati di firma elettronica riscontra una violazione di sicurezza, dovrà non soltanto notificare l’attività illecita alla propria autorità nazionale di riferimento ma, in caso siano coinvolti dati personali dei propri clienti e qualora ne ricorrano i presupposti, dovrà altresì darne riscontro all’autorità garante in materia di dati personali. 

 

Come devono comportarsi i titolari quando non dispongono di sufficienti informazioni sulla violazione?

La notifica ha la funzione di allertare l’autorità e consentire la predisposizione di misure di tutela immediate ai soggetti coinvolti. Elemento centrale della procedura di notificazione è quindi la sua tempestività.

Tuttavia non sempre il titolare, anche quando ha appurato con ragionevole certezza l’esistenza di una violazione, è già in possesso di tutti gli elementi utili per effettuare una descrizione completa ed esaustiva dell’infrazione. Il Gruppo di lavoro chiarisce come il GDPR, tenendo in considerazione la predetta possibilità, mette a disposizione del titolare alcune tecniche o modalità che permettono di bilanciare le esigenze di celerità del messaggio con quelle di una sua sostanziale accuratezza e completezza.

La prima tecnica è l’utilizzo dell’“approssimazione”. Il titolare che non sia ancora in grado di conoscere con certezza il numero di persone e di dati personali interessati dalla violazione può comunicarne in prima battuta un ammontare approssimativo, provvedendo a specificare il numero esatto a seguito di accertamenti.

Secondo strumento previsto dal Regolamento è la “notificazione in fasi”. In questo caso il titolare, per la complessità o estensione della violazione, potrebbe non essere in grado di fornire con immediatezza all’autorità tutte le informazioni necessarie. Potrà allora ottemperare agli obblighi di notifica comunicando, dopo una prima e rapida notifica di alert, tutte le informazioni per fasi successive, aggiornando di volta in volta l’autorità sui nuovi riscontri.

Infine, il Regolamento prevede la possibilità di effettuare una notifica differita, dopo le 72 ore previste dall’art. 33. È il caso in cui, per esempio, un’impresa subisca violazioni ripetute, ravvicinate e di simile natura che interessino un numero elevato di soggetti. Al fine di evitare un aggravio di oneri in capo al titolare e l’invio scaglionato di un numero elevato di notificazioni tra loro identiche, il titolare è autorizzato ad eseguire un’unica “notifica aggregata” di tutte le violazioni occorse nel breve periodo di tempo (anche se superi le 72 ore), purché la notifica motivi le ragioni del ritardo.

Quali sono le modalità di comunicazione all’interessato?

Accanto agli obblighi di notifica all’autorità di controllo, l’art. 34 prevede in capo ai titolari un obbligo di comunicazione agli interessati che consenta loro di attivarsi a tutela dei propri interessi.

Come evidenziato dal Gruppo di lavoro, i due obblighi sono innescati dal superamento di soglie di rischio differenti: è sufficiente un rischio semplice per far sorgere il dovere di notifica, mentre è necessario un rischio “elevato” per attivare quello di comunicazione.

L’adeguatezza di una comunicazione è determinata non solo dal contenuto del messaggio, ma anche dalle modalità di effettuazione. Le linee guida, sulla base dell’art. 34, ricordano che devono sempre essere privilegiate modalità di comunicazione diretta con i soggetti interessati (quali email, SMS o messaggi diretti). Il messaggio dovrebbe essere comunicato in maniera evidente e trasparente, evitando quindi di inviare le informazioni nel contesto di update generali o newsletter, che potrebbero essere facilmente fraintesi dai lettori. Inoltre, dovrebbe tenere conto di possibili formati alternativi di visualizzazione del messaggio e delle diversità linguistiche dei soggetti riceventi (es. l’utilizzo della lingua madre dei soggetti riceventi rende il messaggio immediatamente comprensibile).  

Anche in questo caso, il Regolamento è attento a non gravare i titolari di oneri eccessivi prevedendo che, nel caso la segnalazione diretta richieda sforzi sproporzionati, questa possa essere effettuata attraverso una comunicazione pubblica. Si sottolinea però che anche questo tipo di comunicazione deve mantenere lo stesso grado di efficacia conoscitiva del contatto diretto con l’interessato. Così, mentre può ritenersi adeguata la comunicazione fornita attraverso evidenti banner o notifiche disposte sui siti web, non lo sarà se questa sia limitata all’inserimento della notizia in un blog o in una rassegna stampa.

Come valutare il rischio conseguente a un data breach?

La corretta valutazione dei possibili rischi scaturenti da una violazione è un passaggio importante per un’efficiente gestione del data breach. L’analisi consente al titolare di individuare con prontezza adeguate misure per arginare o eliminare l’intrusione e di valutare la necessità di attivare le procedure di comunicazione e di notifica (che si ricorda si attivano solo al superamento di determinate soglie di rischio). Rispetto alla valutazione effettuata in sede di DPIA (Data Protection Impact Assessment), la valutazione di data breach persegue uno scopo più mirato. Nel primo caso, infatti, si valutano conseguenze potenziali nel caso si verifichi un’ipotetica violazione. Nel caso di data breach, invece, il giudizio prognostico effettuato con il DPIA dovrà essere personalizzato avendo riguardo alle concrete circostanze della violazione. 

Le linee guida rappresentano in questo campo un utile ausilio alle complesse attività di assessment, in quanto forniscono una serie di fattori che i titolari devono tenere in primaria considerazione ai fini della valutazione. In particolare, le conseguenze della violazione varieranno a seconda di: tipo di violazione e natura dei dati violati (es. violazione di riservatezza, di accessibilità o di integrità dei dati; dati sanitari, documenti di identità o numeri di carte di credito); la facilità con cui potrebbero essere identificati gli interessati (es. l’aggressione riguarda dati identificativi o dati personali non direttamente identificativi; era previsto l’utilizzo di tecniche di pseudonimizzazione o crittografia); la gravità delle conseguenze sugli individui in termini di potenziali danni (es. i dati sono stati inviati erroneamente a un fornitore di fiducia o sono stati sottratti da un terzo sconosciuto); speciali caratteristiche e numero degli individui interessati (es. bambini o anziani; violazione massiccia o individuale); particolari caratteristiche del titolare (es. ambito di attività economico o sanitario; contatto frequente con dati sensibili).

Accertato il livello di rischio, il titolare sarà in grado di determinare la necessità o meno di eseguire la notifica all’autorità e la comunicazione agli individui interessati. A titolo esemplificativo, quindi, nel caso una media company perda il temporaneo accesso agli indirizzi email dei propri clienti a causa di un blackout, non sarà necessario procedere alla notifica dell’evento. Al contrario, la temporanea perdita di accesso ai dati sanitari dei pazienti di un ospedale, deve essere considerato un evento che pone a rischio (anche elevato) i diritti degli individui e dovrà perciò essere correttamente gestita ai sensi degli artt. 33 e 34 del GDPR.

Allo stesso modo, lo smarrimento di un CD o di una chiavetta USB contenente dati criptati indecifrabili da terzi, nel caso in cui la chiave crittografica sia nel possesso del titolare e questi possieda un backup di tali dati, potrebbe ritenersi non lesivo nei confronti degli interessati e quindi non obbligatoriamente notificabile. In caso invece la chiave crittografica non sia sicura o non esista un backup dei dati smarriti, sarà necessario attivare le procedure di notifica e comunicazione individuate. 

Cloud, smart data, competenze digitali: ecco su cosa devono puntare gli studi per ‘fare la differenza’ by luca nogara

Le professioni giuridiche d’impresa stentano a fare propri i nuovi paradigmi di business e organizzativi, mentre le aziende chiedono loro un supporto per ricevere servizi incisivi sul conto economico. Fornire le indicazioni sulle tendenze in atto è l'obiettivo della quarta edizione dell'Osservatorio Professionisti e Innovazione Digitale del Politecnico di Milano

fonte: digital4.biz - potete leggere l'articolo originale qui

Ormai è chiaro che la digitalizzazione non rappresenta più un’opzione di cui avvalersi, ma un obbligo a cui adeguarsi. Nessuno escluso: dalla Pubblica Amministrazione alle imprese fino ai singoli cittadini.

Ciò su cui si può discutere, semmai, è la velocità con cui si realizzerà il passaggio dall’analogico al digitale pervasivo. Le norme, che abbracciano via via nuove aree da digitalizzare, forniscono, comunque, un valido riferimento, soprattutto per il nostro Paese, che stenta ad appropriarsi spontaneamente dell’innovazione, in particolare di quella digitale.

Le professioni giuridiche d’impresa – avvocati, commercialisti e consulenti del lavoro – vicine più di altre al sistema produttivo, stentano, esse stesse, a interiorizzare nuovi paradigmi di business e organizzativi, da trasferire anche a livello culturale alla clientela aziendale. Poco meno di un terzo di questi professionisti rappresenta l’avanguardia che ha saputo cavalcare la tecnologia per proporsi con nuovi servizi ed elevati livelli di efficienza interna nella gestione delle attività tradizionali, sempre più oggetto di una riduzione della marginalità.

Il mondo dell’impresa chiede nuovi apporti alle professioni, che devono sempre più fornire servizi in grado di incidere sul conto economico delle imprese e non solamente far fronte agli obblighi di legge. Pur necessari, questi ultimi, infatti, non aiutano l’imprenditore a pagare gli stipendi dei dipendenti.

 

Il 7 luglio partirà la quarta edizione dell’Osservatorio Professionisti e Innovazione Digitale, proprio con l’intento di fornire nuove indicazioni sulle tendenze in atto tra gli studi professionali. Dopo aver esaminato nelle scorse edizioni lo status quo, individuato i trend evolutivi e segmentato gli studi in relazione ai loro comportamenti, adesso è la volta dei temi che possono aiutare gli studi a ‘fare la differenza’.

Verranno, perciò, presi in esami tre temi principali, con l’intento di rispondere ad alcune precise domande. Innanzitutto il Cloud Computing per cui si cercherà di comprendere quali sono le norme che oggi lo regolano il cloud computing, quali le accortezze da utilizzare con la sua adozione, come cambia l’organizzazione dello studio, quali modelli sono adatti a uno studio professionale, quali sono e quanto valgono i benefici economico-finanziari per uno studio che usa il cloud. Il secondo tema si riferisce a smart data e analytics: la nuova frontiera dei servizi digitali, che supera il concetto fisico del documento ma che si concentra sulla parte importante in esso contenuta: i dati. In particolare sarà oggetto d'analisi cosa significa per uno studio elaborare una strategia basata sugli smart data, quali strumenti occorrono, come individuare i dati smart, quali competenze e che benefici ci si può attendere. Infine c'è l'ambito delle competenze digitali, che punterà l'attenzione su quali competenze occorre sviluppare per gestire flussi di lavoro e l’organizzazione sempre più digitale e su quali sono le competenze utili a poter erogare servizi sempre più digital-based.

Il percorso sarà accompagnato dai sostenitori che da anni credono in questa iniziativa: i consigli nazionali, le loro fondazioni studi, il mondo associativo, i vendor di soluzioni tecnologiche e le aziende di servizi, i professionisti che, sempre più numerosi, ci seguono con interesse e forniscono il loro apporto di ‘vita vissuta’. Oltre ai due eventi finali, alcuni appuntamenti intermedi consentiranno di confrontarsi sui temi della ricerca, incontrare esperti e ascoltare la storia di studi che hanno qualcosa di distintivo da comunicare.

PMI italiane, ecco le "priorità digitali": Business Intelligence, eCommerce, alleanze con le startup by luca nogara

Sale soprattutto nelle medie imprese la convinzione che la Digital Transformation non è solo tecnologia ma richiede anche una nuova cultura di collaborazione e innovazione. I benefici più attesi sono aumenti di produttività e riduzioni di costi. Un'indagine di TAG Innovation School, Cisco Italia e Intesa Sanpaolo su oltre 500 realtà con fatturato fino a 50 milioni

fonte: digital4.biz - potete leggere l'articolo originale qui

Parlare di Digital Transformation solo in termini di tecnologie è sbagliato, e questa consapevolezza è diffusa anche tra le piccole e medie imprese (PMI) italiane che, oggetto di una recente indagine di TAG Innovation School - la scuola del digitale di Talent Garden - con Cisco Italia e Intesa Sanpaolo, hanno messo al primo posto la cultura aziendale collaborativa come fattore che determinerà la loro capacità innovativa (se non addirittura la loro forza competitiva e sopravvivenza).

L’indagine, che ha coinvolto oltre 500 realtà imprenditoriali italiane con fatturato fino a 50 milioni di euro, mostra un quadro generale di maturità delle PMI, ormai consapevoli delle sfide che devono affrontare ma ancora troppo spesso ferme al bivio in attesa di capire come procedere. Se, come accennato, il 65% sa di dover intervenire sulla cultura aziendale orientandola verso approcci più collaborativi e di open innovation, il 61% degli intervistati vede nell’implementazione di strategie digitali (intese come la capacità di aprire - in tutto o in parte - il proprio business a opportunità mai esplorate prima) la sfida primaria e più ardua da affrontare. L’introduzione delle tecnologie abilitanti sembra preoccupare meno gli imprenditori anche se ben il 35% la affronta ancora come una sfida critica.

Riduzione dei costi e aumento della produttività i più forti impatti percepiti

Le aziende interpellate da TAG stimano che l’innovazione e la trasformazione digitale impatterà maggiormente sulla riduzione dei costi e l’aumento della produttività. Entrando nel dettaglio dei risultati emersi, 4 aziende su 5 ritengono che l’impatto di soluzioni innovative incida in maniera molto importante o addirittura fondamentale sul taglio dei costi mentre un altro 74% è convinto di poter ottenere significativi aumenti di produttività derivanti, ad esempio, da automazione e servizi in cloud

 

Al di là dei numeri, ciò che appare evidente da questi dati è che tra le PMI italiane vi è oggi una discreta consapevolezza di come la digitalizzazione dei processi possa incidere direttamente su efficienza ed efficacia della gestione aziendale. In realtà, analizzando a fondo i dati, la riflessione risulta valida solamente per le medie imprese mentre sembra ancora in salita il percorso delle imprese più piccole. Il 76% degli amministratori delegati intervistati dimostra una forte sensibilità rispetto alla necessità di essere aggiornati sui temi dell’innovazione digitale ma tale caratteristica/esigenza si attenua parecchio quando a parlare sono gli imprenditori che guidano aziende con fatturato sotto i 10 milioni: un'altra conferma della minor propensione da parte delle imprese più piccole a comprendere ed esplorare le possibilità offerte dall’innovazione digitale.

Priorità: Business Intelligence, Big data, alleanze con le startup

Nonostante le difficoltà nel trovare la propria strada e nel capire come esattamente iniziare un percorso di trasformazione digitale, quasi la metà delle PMI intervistate (il 48%) dichiara di essere attualmente impegnata nell’analisi e studio di nuove strategie di business legate al digitale. Cosa concretamente significhino tali “intenzioni” lo spiegano i numeri: il 42% delle PMI intervistate sta implementando sistemi decisionali basati su analisi di business intelligence (studio della concorrenza, analisi di mercato, ecc.) mentre un altro 21% cerca di sfruttare in modo più efficace i Big Data. A conferma di tale impegno anche le intenzioni di investimento delle PMI nell’arco dei prossimi tre anni: le partnership con le startup e le strategie basate sui Big Data giocano il ruolo più importante dato che entrambi sono obiettivi condivisi dal 39% delle PMI intervistate.

Spicca anche l'interesse verso i canali di vendita digitali: il 37% dichiara che i prossimi investimenti andranno sull’eCommerce. Scarso invece l'orientamento verso temi che sono in realtà molto dibattuti tra le imprese più grandi: cybersecuritysharing economy e realtà aumentata/virtuale sono qui rilevanti solo per un quinto del campione analizzato, ovvero rispettivamente 21%, 20% e 19%.

I 9 trend dell’IT nei prossimi mesi, secondo Gartner: tra edge computing, cloud, e Io by luca nogara

Gartner ha riassunto quali saranno le principali tendenze IT del 2017. Anche se non si tratta di argomenti del tutto nuovi, sarà la loro evoluzione ad avere un impatto significativo sui team IT e sui carichi di lavoro dei data center. La governance sarà in mano a 5 professionisti chiave

fonte: digital4.biz - puoi leggere l'articolo originale qui 

Data center interconnessi, invisibili, containerizzati, capaci di orchestrare l'evoluzione di una Internet of Things pervasiva. La governance sarà in mano a nuove figure chiave, sempre più specializzate nei vari cluster di pertinenza che caratterizzano lo sviluppo dei data center di domani, incentrati su chiavi di servizio sempre più sofisticate e performanti.

Quali sono le  tendenze che continueranno a definire il ruolo dei professionisti IT e le competenze che questi ultimi dovranno avere per gestire i data center del prossimo futuro?

Se ne è parlato ad Orlando lo scorso mese, in occasione dell'IT Operations Strategies and Solutions Summit di Gartner. Gli esperti hanno analizzato i top trend del 2017 in ambito IT per far luce su quali saranno gli elementi che avranno un impatto maggiore sugli operatori del settore.

1) I data center tradizionali scompariranno

I tradizionali data center on premise stanno diminuendo di giorno in giorno. Il motivo? Le leggi di mercato. Per le aziende oggi esistono delle alternative più efficienti ed economicamente convenienti. Gli analisti di Gartner hanno rilevato che oggi circa l'80% dei carichi di lavoro aziendali si esegue on premise e il restante 20% si trova sul cloud o su impianti esternalizzati, mentre entro il 2021 la percentuale dei workload eseguiti localmente scenderà a circa il 20-25%, a tutto vantaggio delle soluzioni cloud e off-premise. Il concetto di data center as a service (DCaaS) ha guadagnato terreno poiché le imprese hanno spostato il proprio focus dall’infrastruttura alle applicazioni. Ma la scelta di cloud, outsourcing, SaaS, PaaS, risorse umane as a service e DCaaS non sono proposte poi così estreme. Gli esperti ritengono che un solo delivery model probabilmente non supporterà tutte le esigenze di un'organizzazione e che gli operatori, probabilmente, dovranno utilizzare diversi modelli per raggiungere diversi obiettivi.

2) I data center saranno interconnessi

La connettività è un elemento caratteristico della moderna tecnologia dei data center, ma la crescita del cloud e di altri servizi off-premise la metterà ancora più al centro dei processi operativi, utilizzando i collegamenti in fibra per la connettività ad alta velocità e di lunga distanza.

Secondo gli esperti, le interconnessioni future fonderanno data center e risorse in modo molto simile alle reti peer-to-peer. Questo metterà le prestazioni e la resilienza della connettività dei provider di cloud e software-as-a-service alla pari con le risorse  di calcolo e archiviazione  private on-premises, oltre a offrire flessibilità e agilità su scala più vasta.

3) I container cambieranno le applicazioni

I container continuano a essere una delle principali tendenze dell’IT aziendale. Questo perché consentono nuove forme di sviluppo e implementazione delle applicazioni che non sarebbero possibili persino con centri dati virtualizzati.

Mentre questo scenario rappresenta un terreno fertile per gli sviluppatori, ai professionisti IT richiede di implementare e supportare i container, oltre ad affrontare nuovi problemi di gestione relativi al loro utilizzo, come governance, licenza software e così via. Gli esperti evidenziano che per creare, monitorare, gestire e distruggere i container gli operatori devono garantire un'infrastruttura solida, organizzando e monitorando tutte le risorse utilizzate per farli funzionare.

 

4) L’IT, se saprà innovarsi, guiderà il business

I leader aziendali comprendono il ruolo svolto dai servizi IT in azienda e la loro importanza per il successo del business, ma gli analisti sottolineano come l’era dell’ IT in-house che dà ordini su applicazioni, servizi e tecnologie utilizzate dalle unità di business sia terminata. La rapida crescita del cloud pubblico, del SaaS e di altri servizi concorrenziali ha posto sulla difensiva i modelli IT  tradizionali: non c'è più bisogno di aspettare che l’IT possa valutare, raccomandare o distribuire servizi e carichi di lavoro quando esistono opzioni efficaci che possono essere impegnate più velocemente e con meno problemi nelle line of business.

Gartner fa notare come oltre il 20% della spesa IT aziendale, attualmente, sia  fuori dal controllo IT e come ciò rappresenti una sfida per l’IT che deve sapersi innovare e ripensare il suo ruolo di abilitatore di servizi e broker.

5) La stranded capacity dovrà essere identificata e ridotta

Il concetto di stranded capacity non è certo una novità, ma la velocità e l’agilità dai moderni modelli di calcolo rendono i problemi di sprawl molto più pronunciati e potenzialmente costosi. Gli analisti di Gartner hanno riferito che il 22% delle istanze di calcolo oggi sono invisibili, ovvero sono istanze che eseguono e consumano risorse, ma non forniscono alcun valore all'attività. Il 40% dei rack non è adeguatamente approvvigionato e i server eseguono solo il 32%. Tutto questo si traduce in sprechi di risorse, ovvero in costi inutili per l’organizzazione.

6) Internet of Things in emersione

L'internet delle cose è diventato rapidamente uno dei trend principali in ambito IT, grazie alla sua capacità di sfruttare enormi quantità di dati in opportunità mai viste prima sia per le vendite, il controllo e l'analisi dei processi. I dispositivi IoT possono velocizzare i tempi di vendita con funzionalità predefinite, elevata scalabilità, supporto per i fornitori e un ecosistema di fornitori abbastanza completo. Nonostante ciò, gli esperti notano che i dispositivi reali e gli stack di software utilizzati nelle distribuzioni IoT sono ancora in fase di definizione e che il settore soffre ancora della mancanza di uno standard.

7) I dispositivi remoti devono essere gestiti

L’Internet of Things richiede che i team IT gestiscano anche  i dispositivi remoti - le cose dell’internet, appunto!  - e ciò rappresenta una sfida logistica non da poco: significa occuparsi di installare, configurare, gestire, sostituire o ritirare ogni dispositivo remoto presente nell'ambiente.

8) Micro ed edge computing meritano attenzione

Invece di investire in una larghezza di banda di rete più costosa, molte organizzazioni impiegano risorse di calcolo su piccola scala e risorse di archiviazione più vicine alla posizione del lavoro effettivo: questa strategia è conosciuta come edge computing. Tuttavia, tali sforzi di elaborazione remota o pongono di fronte ai responsabili IT altri tipi di problemi, come la resilienza e la manutenzione. Le aziende devono pertanto considerare con attenzione i requisiti e le vulnerabilità di una piattaforma di calcolo remoto.

9) Guardare avanti verso i nuovi ruoli dell’IT: le 5 figure chiave della governance

Queste tendenze e la mutevole relazione tra business e IT hanno generato nuovi ruoli nel settore.

  1. Secondo gli esperti, per esempio, l’architetto dell’Internet of Things sarà colui il quale selezionerà e implementerà i componenti di un sistema IoT per garantire una corretta gestione e integrazione con altre infrastrutture e software di data center.
  2. Il cloud sprawl specialist, invece, monitorerà l'utilizzo delle risorse nel cloud pubblico e privato e applicherà politiche rivolte a ridurre al minimo gli sprechi. Lo strategy architect sarà la figura che esaminerà le infrastrutture esistenti e fornirà indicazioni per ottimizzarle, individuando le tecnologie necessarie per conseguire gli obiettivi aziendali.
  3. Uno specialista di capacità e risorse, invece, si occuperà di analizzare le risorse per il business con il fine di individuare, ove possibile, alternative a costi più accessibili.
  4. Gli esperti ritengono che alla figura del broker and provider specialist, invece, verrà demandato il compito di identificare i migliori servizi di business tra quelli offerti dalla gran quantità di potenziali fornitori per guidare l'azienda verso l’impiego di servizi convenienti capaci di integrarsi con altre piattaforme di business.
  5. Infine, un esperto di performance ed end-to-end si occuperà di application performance management per garantire che i carichi di lavoro operino con la massima efficienza e la soddisfazione degli utenti.

Data center in Italia? L'83% è in house, ma risorse e infrastrutture non sono più adeguate al business by luca nogara

Data center aziendali indispensabili ma anche concettualmente obsoleti. Lo staff IT occupa più tempo a gestire i contratti con i fornitori che a occuparsi dello sviluppo e della programmazione. Il cloud piace e interessa, ma c'è ancora molta paura per la business continuity. Tutti i numeri in una survey firmata NetworkDigital360

fonte: digital4.biz - puoi leggere l'articolo originale qui

Data center in Italia come cardine del business ma anche come asset sempre più critico. I dati parlano chiaro: a fronte di nuovi modelli tecnologici incentrati sul cloud e sulle logiche dell'As a Service e del Pay Per use, 8 aziende su 10 (83%) nel nostro Paese hanno ancora un data center in house, l'85% delle imprese ha bisogno di far evolvere l'infrastruttura IT in una chiave di maggiore razionalizzazione e agilità, quasi 7 aziende su dieci (69%) hanno uno staff sottodimensionato rispetto alle esigenze e ai compiti associati alla governance. 

lI vero problema dei data center in Italia, infatti, sono infrastrutture aziendali che non hanno seguito un modello di sviluppo programmato e oggi sono il risultato di una crescita molto più addizionale che strategica. Questo è il motivo per cui tutte le aziende confermano di avere necessità di cambiare, in un'ottica di forte rinnovamento delle macchine ma anche delle modalità di gestione dei servizi.

A rivelarlo una survey condotta da NetworkDigital360, in collaborazione con Dimension Data, su un campione di 280 aziende italiane di medie dimensioni (superiori a 250 dipendenti), operanti in vari settori industriali dal manufacturing (65%) al finance (10%), dal retail  (20%) al chimico-farmaceutico (4%).

Data center in Italia: voglia di evoluzione per quasi 9 aziende su 10

Gli analisti hanno sottolineato come per quasi nove aziende su 10 (85%) il motivo principale che sta spingendo la direzione a revisionare le infrastrutture ICT esistenti sia la volontà di razionalizzare un installato eterogeneo, costituito da sistemi legacy e nuove soluzioni che progressivamente sono entrate in azienda per rispondere rapidamente alla domanda delle diverse LOB che richiedono maggiore agilità e una velocità di servizio crescente. Il resto delle risposte fotografa segnali di evoluzione e di cambiamento in relazione allo sviluppo del business. La reingegnerizzazione dei data center italiani, infatti, è funzionale alla crescita dell'organizzazione interna (22%), ad acquisizioni/merge e dismissioni di rami d'impresa (15%), all'apertura di nuove filiali (12%), all'apertura di nuove business unit (10%) e all'internazionalizzazione legata a delocalizzazione o apertura di sedi estere (6%). Solo l'11% delle imprese dichiara di aver bisogno di rinovare le proprie infrastrutture per adeguarle alla compliance normativa.

 

Per più di 8 aziende su 10 il data center non è un servizio ma una proprietà

La volontà di sviluppare i servizi richiesti nel più rapido tempo possibile per garantire il time to market aziendale oggi spinge le imprese a rivedere la propria regia informatica. L’obbiettivo? Presidiare la governance integrando applicazioni e sistemi secondo criteri di centralizzazione e omogeneizzazione più efficaci e con economie più lungimiranti e sostenibili. La ricerca ha messo in luce ulteriori aspetti che aiutano a capire quali sono i limiti di un approccio più evoluto: l’83% delle imprese italiane considera ancora il data center come un bene, ovvero un asset rigorosamente proprietario. Meno di 1 azienda su 10 (8%) ha terziarizzato la complessità del data center affidandola a un provider specializzato e meno di 1 azienda su 10 (9%)  ha spostato il proprio approccio da un concetto di possesso a un concetto di puro servizio affidando a un cloud provider la gestione in toto delle proprie infrastrutture ICT. 

 

Grande interesse per il cloud

Alla domanda “Valutando la possibilità di una migrazione delle vostre infrastrutture in cloud, quali delle seguenti opzioni terreste più in considerazione?” gli analisti hanno registrato come il 35% delle aziende sia più propensa a scegliere un modello ibrido, il 33% un modello di cloud privato e il 20% un modello di cloud pubblico. 8 aziende su 10 scelgono la virtualizzazione mentre solo due aziende su 10 affermano di non essere minimamente interessate a spostare sulla nuvola le proprie infrastrutture, mentre un’azienda su dieci confessa di non aver ancora preso posizione. In realtà l'indagine evidenzia come ci siano ancora moltissimi freni rispetto all'uso più intensivo e strategico della nuvola. 

 

L’orientamento delle risposte suggerisce che le imprese italiane nutrono ancora diverse riserve nell’affidare la gestione delle proprie infrastrutture completamente all’esterno del tradizionale aziendale. Le risposte, in vario modo, sono quasi tutte legate al timore di interrompere la business continuity. Al primo posto delle criticità per quasi 6 aziende su 10 c’è la paura di intaccare la sicurezza aziendale (59%) seguita, praticamente a pari merito (58%), dalla scarsa fiducia rispetto alle garanzie di una connettività tale da garantire la business continuity erogata in cloud. La terza criticità, in ordine di spiegazione, è comunque correlata allo stesso tema: il timore di un’interruzione rispetto alla continuità operativa, indicata da quasi 5 aziende su 10 (49%). Per il 36% delle imprese la migrazione sulla nuvola delle proprie infrastrutture è frenata da problemi associati alla compliance, a pari merito con motivazioni legate alla paura di vedere aumentare i costi dell’As a Service. Per due aziende su 10 (20%), invece, il cloud è inaccessibile perché le infrastrutture sono troppo obsolete per consentire una gestione on demand.

Staff IT sempre più ...staffati. La risposta è nell'outsourcing

Al di là delle criticità legate alla gestione di server, storage e infrastrutture di rete fisiche e virtuali la survey ha messo in luce una grossa una grossa crisi interna allo staff ICT: quasi 7 aziende su dieci (69%) dichiara di essere sottodimensionato ma il 31% ha ovviato al problema grazie a risorse in outosurcing. La governance è ripartita tra chi si occupa di demand management (73%) che raccoglie informazioni dal business e le traduce in requisiti IT, una parte del personale (70%) che a causa della sempre più rapida obsoloscenza tecnologica dell’hardware e del software si occupa di gestire contratti diversificati con una molteplicità di fornitori per upgrade ed evolutive, personale prettamente tecnico e dedito allo sviluppo e alla programmazione (67%). A fronte di un 45% di aziende che non pensa di intervenire su un potenziamento dello staff IT, più di 3 aziende su 10 (33%) afferma che ricorrerà all'outsourcing mentre 1 azienda su 10 sta formando il proprio personale e 1 azienda su 10 provvederà al gap attraverso nuove assunzioni.

 

 

Governance delle infrastrutture nell'era omnicanale e gestione del rischio by luca nogara

Nella gestione delle prestazioni di rete dirigere l'orchestra tecnologica costituita da una molteplicità di prodotti fissi e mobili e una gamma infinita di applicazioni sembra diventata una missione impossibile. Secondo Accenture, il 70% delle aziende conferma come la cybersecurity impatti sulla governance imponendo nuovi modelli di gestione. Quali i trend e quali linee guida seguire?

fonte: digital4.biz - trovi l'articolo originale qui

Governance delle infrastrutture nell'era omnicanale significa saper lavorare sulle architetture di rete con una visione estremamente allargata e dinamica rispetto alle soluzioni da innestare e presidiare. Garantire la massima continuità operativa rimane un fondamentale. Come riuscirci è tutto un altro discorso.

Il tema è duplice. Da un lato bisogna continuare a gestire i processi, interpretando i protocolli associati a una molteplicità di livelli per agganciare e far funzionare soluzioni, aprendo nuovi canali di comunicazione finalizzati ad abilitare tutti i nuovi servizi richiesti dalle LoB che, ormai, hanno capito che non c'è business senza una strategia omnicanale. Dall'altro bisogna continuare a garantire la business continuity che, con l'evolversi delle tecnologie di ultima generazione, ormai tende a rientrare in quel macrocapitolo chiamato Cybersecurity. Secondo una ricerca condotta da Accenture, ad esempio, 7 aziende su 10 confermano come la cybersecurity impatti sulla governance imponendo nuovi modelli di gestione.

Il problema è collettivo: gli analisti hanno infatti evidenziato come, nel mondo, le organizzazioni nel 2015 abbiano  speso 84 miliardi di dollari sulla sicurezza e da qui ai prossimi quattro anni la cifra lieviterà a quota 125 miliardi. Sono un sacco di soldi, è vero, ma i costi che le aziende dovranno sostenere entro il 2030 in seguito ai cyberattacchi  sono stimati da Accenture nell'ordine dei 90 miliardi di dollari.

Governance delle infrastrutture nell'era omnicanale, distribuita anzi troppo distribuita

Che si tratti di abilitare un nuovo server, avviare un servizio di streaming, includere tra gli accessi alla rete i dispositivi mobili non solo dei dipendenti ma anche degli ospiti o implementare qualsiasi altro touch point che la Internet of Things ha reso più smart (dal sistema di videoconferenza all'e-board, dal chiosco interattivo in reception al tavolo intelligente in show-room), la governance deve cosiderare sempre e comunque che la connettività alla rete porta con se nuovi margini di rischio che vanno analizzati, capiti, prioritizzati e gestiti.

Dall'azienda estesa all'azienda distribuita tra le decine di utenti che lavorano da cellulare, da tablet, da pc portatile ma anche da tutta una serie di dispositivi associati a una Collaboration supportata da tutte le derive tecnologiche della Unifiend Communication significa prevedere una quantità di software di riferimento inenarrabile. Il tutto considerando come il cloud abbia cambiato ulteriormente gli equilibri, spostando una parte delle infrastrutture nell'etereo universo dell'As a Service.

Il problema, spesso, è che nelle aziende le figure di riferimento per gestire i servizi sono diverse. Il CIO è spesso un senior cablato nella gestione dei fornitori e del suo staff IT mentre il network manager, che conosce la rete come le sue tasche difficilmente si occupa di Security, dal momento che questa è stata associata anche alla gestione della proprietà dei dati, della proprietà intellettuale, della Privacy, della Compliance e di tutta un'altra serie di task che sono stati spostati su altre figure professionali. Il risultato è che ognuno fa il suo ma le architetture di rete continuano a crescere in maniera discontinua e pericolosa. Serve una centralizzazione delle attività e serve un sistema di supervisione condiviso tra i manager che aiuti l'azienda a capire in fretta cosa sta succedendo e perchè, al di là di tutti gli strumenti di controllo puntuali di cui è stata costellata l'infrastruttura.

 

Per gestire prodotti multipli e tutto il profluvio di applicazioni oggi le aziende inziano a utilizzare nuove piattaforme che, attraverso un unico cruscotto centralizzato, consentono di presidiare le reti e di rilasciare servizi in tempo reale. L'obbiettivo? Gestire le infrastrutture a 360 gradi. 

Ieri architetture di rete. Oggi ecosistemi estesi

«Le architetture dei data center - ha spiegato Stefano Mainetti, Responsabile Scientifico Osservatorio Cloud & ICT As a Service della School of Management del Politecnico di Milano - si stanno muovendo da soluzioni on-premise basate su server fisici (o blade server) in cui servivano skills specifici (tipicamente skills sistemistici) verso soluzioni più semplici da gestire in cui l’hardware sottostante è sempre più nascosto e gestito esternamente. Questo aumenta da un lato le performance e l’affidabilità delle infrastrutture (si pensi alle capacità di investimento che hanno i provider nei confronti dei loro data center) e dall’altro il livello di scalabilità (che non si poteva ottenere prima con le soluzioni on-premise basate su sistemi fisici). Il punto di arrivo è il software defined data center che, attraverso meccanismi di integrazione, può dare vita ad architetture ibride capaci di accedere dinamicamente a ulteriori risorse computazionali, come il cloud pubblico. Operativamente, si parla quindi di un modello architetturale basato sulla condivisione di risorse, che supera il concetto tradizionale di silos e si muove verso un data center programmabile come un software. Alle aziende, dunque, sono richieste nuove vision e una nuova governance». 

In ambito industriale, soprattutto, i mondi IT e OT convergeranno su una soluzione interclouding e la differenza la farà la flessibilità e interoperabilità di quanto disponibile, da cui la strategicità dei partner tecnologici con i quali si andrà a collaborare su tutti i livelli dei processi aziendali. Questo comporterà una revisione profonda a livello di organizzazione, ruoli e responsabilità rispetto alle figure IT e OT oggi presenti in azienda. 

Le indicazioni degli esperti? Abbandonare il concetto di architettura e sposare quello di ecosistema esteso, che cambia e cresce costantemente. Solo in questo modo le organizzazioni potranno essere in grado di adattarsi e riallinearsi per proteggere la propria continuità operativa avendo ben chiare le priorità aziendali secondo una nuova logica evolutiva.

Secondo Accenture, con un'economia digitale in rapida espansione, molte organizzazioni dovrebbero valutare più seriamente le falle che potrebbero crearsi nelle proprie infrastrutture di rete, soprattutto considerando come ormai la sicurezza sia partizionata tra più partner a cui è stata terziarizzata la complessità. 

Un suggerimento importante degli analisti alle aziende è di non dare più per assodato quanto si è costruito: ogni giorno arrivano nuove istanze e nuove tecnologie, nuove minacce e nuove soluzioni da analizzare, portare in azienda, interfacciare e integrare, controllare, aggiornare, proteggere, insomma gestire. La Governance 4.0 va rifondata su un concetto di massima trasparenza informatica, non su un addizione di strumenti diversi: è ora di razionalizzare e passare a piattaforme di controllo capaci di gestire in modalità convergente l'eterogeneità di sistemi e applicazioni in modo dinamico e cybersicuro.

GDPR, tutto quello che vorreste sapere ma non avete osato chiedere sulla privacy by luca nogara

Il nuovo Regolamento UE sulla protezione dei dati personali sarà pienamente applicabile esattamente tra un anno, ma in molti casi richiede modifiche organizzative e investimenti in tecnologie tali da richiedere una pianificazione fin da subito. Ecco le novità più significative e gli elementi principali su cui impostare il programma di adeguamento

fonte: digital4.Biz   potete leggere l'articolo originale qui

Il General Data Protection Regulation (GDPR)ovvero il Regolamento UE n. 679/2016 sulla protezione dei dati personali (o Regolamento sulla privacy), è entrato in vigore Il 24 maggio 2016, ma diverrà pienamente applicabile dal 25 maggio 2018, abrogando la Direttiva 95/46/CE. Al tema recentemente è stato dedicato un Workshop della Digital Transformation Academy degli Osservatori Digital Innovation del Politecnico di Milano, a cui hanno preso parte oltre 60 CIO, Security Manager e Responsabili Area Legal.

Un primo elemento emerso è che il regolamento GDPR non vale per gli accordi di trasferimento di dati personali verso Paesi terzi e organizzazioni internazionali, conclusi prima dell’entrata in vigore del Regolamento. Tali accordi resteranno in vigore fino alla loro sostituzione, revoca o modifica, così come i provvedimenti dell’Autorità Garante e le decisioni della Commissione UE. Inoltre, rispetto ai trattamenti ancora in corso al 25 maggio 2018, non è necessario che l’interessato presti nuovamente il suo consenso, se questo è stato espresso secondo modalità conformi alla nuova disciplina.

Anche se le aziende hanno a disposizione un anno per potersi adeguare, alcune novità del GDPR impongono un’attenta pianificazione fin da subito, potendo comportare modifiche organizzative significative e investimenti di natura tecnologica. Inoltre il GDPR rovescia completamente la prospettiva della disciplina di riferimento, istituendo un quadro normativo tutto incentrato sui doveri e la responsabilizzazione del Titolare del trattamento (principio di “accountability). La nuova disciplina impone a tale soggetto di garantire il rispetto dei principi in essa contenuti, ma anche di essere in grado di comprovarlo, adottando una serie di strumenti che lo stesso GDPR indica.

In primisil registro delle attività di trattamento, che deve contenere una serie di informazioni, tra cui le finalità del trattamento, la descrizione delle categorie di interessati e di dati personali che vengono trattati, oltre che l’indicazione delle misure di sicurezza adottate. La tenuta del registro costituisce un adempimento di fondamentale importanza nell’ottica del principio di accountability, in quanto permette di monitorare in maniera approfondita le operazioni di trattamento all’interno dell'organizzazione. Esso costituisce dunque sia uno strumento operativo di lavoro con cui censire in maniera ordinata le banche dati e gli altri elementi rilevanti per assicurare un sano “ciclo di gestione” dei dati personali, sia un vero e proprio documento di carattere probatorio mediante il quale il Titolare del trattamento può dimostrare di aver adempiuto alle prescrizioni del Regolamento.

A tal fine, può risultare utile indicare nel registro una serie di elementi non espressamente imposti dall’art. 30 del GDPR, ma comunque importanti per tener traccia delle operazioni di trattamento effettuate. Tra questi, ad esempio, la base giuridica del trattamento(ricompresa tra gli elementi che devono essere contenuti nell’informativa da consegnare all’interessato), o gli applicativi e/o database utilizzati, la cui elencazione può risultare necessaria per mappare con esattezza le misure di sicurezza implementate/da implementare, oltre che per condurre efficacemente la valutazione dei rischi.

Quest’ultima assume carattere imprescindibile per poter stabilire quali misure tecniche e organizzative adottare in azienda per garantire un livello di sicurezza appropriato al rischio stesso. La nuova normativa, infatti, abbandona il concetto di “misure minime” del Codice Privacy, sostituendolo con quello di “misure adeguate”. Tale maggiore discrezionalità, tuttavia, è accompagnata, come sopra precisato, dall’onere in capo al Titolare del trattamento di poter dimostrare le ragioni che hanno portato a una determinata decisione.

Titolare del trattamento che potrà nominare un Data Protection Officer (DPO), ovvero una figura specialistica e altamente qualificata che supporti l’applicazione degli obblighi della nuova normativa, e funga da punto di contatto con le Autorità di controllo e gli interessati. La designazione del DPO è obbligatoria solo in alcuni casi (trattamenti effettuati su larga scala, posti in essere da un’Autorità pubblica/organismo pubblico, o che ricomprendono categorie particolari di dati personali). Tuttavia costituisce una buona prassi anche per le aziende che sarebbero esenti da tale adempimento.

In sostanza, l’ampio spettro di novità introdotte dal GDPR impone di definire un piano di adeguamento alla nuova normativa, coinvolgendo le diverse funzioni aziendali coinvolte in operazioni di trattamento di dati personali. È fondamentale sfruttare appieno il periodo transitorio a disposizione, per garantire la conformità alle nuove disposizioni entro il 25 maggio 2018.

 

Il primo passo quindi, nonché quello di maggiore rilevanza, è definire il registro dei trattamenti e il piano di adeguamento al GDPR. Questa fase prevede l’assessment del modello attuale dell’organizzazione, al fine di definire un piano di azioni opportunamente dettagliate e calate sulla realtà aziendale.

Data l’ampiezza del perimetro di impatto del GDPR a livello aziendale, mappare il modello attuale e identificarne in modo esaustivo i gap, in relazione a quanto richiesto dal Regolamento, richiede un approccio strutturato e comprensivo di tutte le leve su cui è possibile agire in relazione all’obiettivo di adeguamento, quali:

  • Organizzazione e ruoli. Definizione e formalizzazione del modello organizzativo, dei ruoli e delle relative responsabilità all’interno dell’azienda, in relazione all’indirizzo e alla gestione dei temi legati alla Privacy.
     
  • Persone, cultura e competenze. Progettazione e diffusione della cultura della protezione dei dati e delle policy di sicurezza all’interno dell’organizzazione, attraverso attività di formazione e sensibilizzazione.
     
  • Processi e regole. È senza dubbio una delle aree più impattate dalle richieste di adeguamento del GDPR, basti ricordare la Privacy by design, la portabilità dei dati, la gestione dei data breach, la gestione del registro dei trattamenti, la gestione dei diritti degli interessati. Sono solo alcuni dei processi richiesti dal Regolamento che dovranno essere disegnati, implementati e presidiati nell’organizzazione.
     
  • Documentazione. Definizione delle procedure del manuale di gestione della data protection, aggiornamento dei contratti con le terze parti, adeguamento e/o stesura della documentazione di base quali informative, moduli di consenso, lettere di nomina, ecc.
     
  • Tecnologia e strumenti. Area di rilevante importanza - tipicamente anche dal punto di vista di investimenti da prevedere in ottica di piano di adeguamento - in ambito di misure di sicurezza informatica (antivirus, disaster recovery, firewall, pseudonimizzazione dati, cifratura dati, prevenzione e rilevazione data breach, Identity Management, ecc.), di sicurezza fisica (es. controllo accessi), di adozione di tool IT GRC (Governance, Risk & Compliance).
     
  • Sistema di controllo. Progettazione e gestione di un cruscotto di KPI per il monitoraggio della compliance a normative esterne (es. GDPR), regolamenti interni, progettazione di reportistica ad hoc da condividere a vari livelli dell’organizzazione.
     

L’individuazione strutturata dei gap è necessaria per poter definire e prioritizzare le attività del piano di adeguamento, che guiderà l’organizzazione nel processo di compliance.

Oltre all’adottare un metodo strutturato nell’avvio e nella gestione del progetto, fattori critici di successo per il piano di adeguamento e la sua implementazione sono:

  • Avvio e mantenimento di un tavolo di lavoro congiunto comprensivo degli attori principali (Compliance, IT, Legale, Sicurezza), a garanzia di un allineamento completo e costante su attività svolte, priorità e piano di adeguamento aziendale.
     
  • Ingaggio, sensibilizzazione e coordinamento dei referenti di Business in fase sia di assessment sia di implementazione delle azioni.
     
  • Comunicazione e conduzione dell’adeguamento al GDPR come una opportunità di tutta l’organizzazione di creare cultura e sensibilizzare rispetto alla privacy e alle policy di sicurezza e, sfruttando la fase di mappatura, possibilità di realizzare sinergie nell’indirizzo di altre compliance (es. D. Lgs. 231), nonché di arricchire la knowledge base aziendale (es. mappa processi, mappa applicativi), integrando opportunamente il registro dei trattamenti.
     

L’adeguamento al GDPR può essere approcciato in diversi modi. Sta all’azienda scegliere se adeguarsi in senso stretto o cavalcare l’opportunità per creare valore per l’organizzazione nel suo complesso. Non può però sfuggire che il dato personale di clienti, dipendenti e soggetti diversamente coinvolti nel ciclo produttivo e commerciale dell’azienda sia un asset fondamentale per la trasformazione digitale del business e le opportunità che ne possono derivare.

 

 

 

I 6 buoni motivi sul perché utilizzare al meglio ERP in Cloud by luca nogara

  1. Mette ordine al tuo lavoro e semplifica l'emissione delle fatture
  2. Ti informa quando le tue fatture vengano consegnate e scaricate dai tuoi clienti
  3. Sollecita i clienti in automatico quando le fatture arrivano a scadenza
  4. Permette al tuo commercialista di accedere direttamente alle tue informazioni e ridurre cosi la possibilità di errori legati allo scambio delle informazioni
  5. Ti aiuta a ricordare e trovare le informazioni in modo rapido e intuitivo ogni volta che ne hai bisogno
  6. Ti libera dai backup o da altri problemi tecnici, perché nel CLOUD i tuoi documenti sono al sicuro da virus e perdite accidentali, e disponibili in ogni momento anche quando sei fuori ufficio

 

Gestisci subito le tue fatture online. ERP in Cloud by luca nogara

 

CREA FATTURE IN POCHI SECONDI

Una interfaccia semplice e intuitiva per creare fatture note di credito, ricevute e bolle.Compilazione automatica dei tuoi documenti con l’esclusiva funzione «smart».

 

PAGAMENTI SEMPRE SOTTO CONTROLLO

Tieni sotto controllo i pagamenti dei tuoi clienti. Con i promemoria automatici emettere una fattura ricorrente è semplicissimo. Con i richiami automatici dei documenti scaduti puoi velocizzare la gestione degli incassi.

APP SMARTPHONE

Con l’APP smathphone potrai avere una consultazione facile e veloce in ogni momento.

Fatture 24 ore su 24 sempre disponibili.

APP TABLET

Grazie all’APP dedicata per tablet potrai avere un’esperienza di utilizzo completa per la consultazione e la creazione di documenti.

 

Tutto il Cloud che ti serve chiedilo a noi by luca nogara

Scegli il servizio Cloud che fa per te

 

100% ITALIANO:  

Tutti i CLOUD CENTER di ReeVo sono in Italia

GARANZIA 99.98%

Ti garantiamo il servizio al 99,98% per contratto: penali chiare e presenti nello SLA

SUPPORTO TOTALE

Sei sempre assistito: prima, dopo e durante la migrazione

PAY PER USE

La soluzione che scegli è flessibile e scalabile, paghi solo quello che ti serve e quando ti serve

 

 

 

 

Dematerializzazione, anzi conservazione digitale dei documenti: le normative e i vantaggi in Italia by luca nogara

 

La dematerializzazione dei documenti non solo permette di risparmiare sulla carta, sull'inchiostro e sulle ore di lavoro delle persone che vanno e vengono dalle stampanti agli archivi e viceversa. È l'integrazione digitale a permettere di lavorare più efficacemente, aumentando la produttività individuale e aziendale

abstract - fonte www.digital4.biz - puoi trovare l'articolo originale qui

In un mondo in cui la metà del nostro tempo la passiamo a guardare informazioni on line da qualsiasi dispositivo, parlare di gestione cartacea dei documenti sembra quasi un paradosso. Eppure, a dispetto di una digitalizzazione sempre più spinta, il mondo analogico rappresenta ancora un'entità immane di archivi e scaffali pieni di carta.

Alla luce delle tecnologie oggi disponibili, la gestione documentale tradizionale oggi è senza dubbio un processo irrazionale: scrivere, stampare, firmare, vidimare, spedire, fotocopiare/scansionare, archiviare, recuperare sono tutte attività che non solo richiedono tempo e risorse, ma sono anche soggette a un tasso di errore elevato.

Insomma, i vantaggi della dematerializzazione dei documenti sono ormai chiari a tutti.  La gestione digitale non solo permette di risparmiare sulla carta, sull'inchiostro e sulle ore di lavoro delle persone che vanno e vengono dalle scrivanie alle stampanti, dagli archivi alle scrivanie, ma permette agli impiegati di lavorare più velocemente e più efficacemente, aumentando la produttività individuale e aziendale. Non a caso nel 2016 il 40% degli investimenti delle aziende italiane sarà finalizzato a progetti di digitalizzazione e dematerializzazione (Fonte: Osservatori Digital Innovation 2015 - Politecnico di Milano).

 

E’ arrivato il regolamento europeo della Privacy. La tua azienda è pronta? by luca nogara

 ICT4Innovation può aiutare le aziende e le organizzazioni ad affrontare i nuovi requisiti

 

In data 14 aprile 2016 è stato approvato il Regolamento Europeo che in Italia sostituirà il Codice Privacy.
Il Regolamento entra in vigore entro 45 giorni dalla data di approvazione e le aziende avranno due anni di tempo per adeguarsi. Il regolamento sarà immediatamente esecutivo e quindi non richiederà la necessità di recepimento da parte degli Stati membri.
L’entrata in vigore di questo Regolamento permetterà che le stesse direttive siano contemporaneamente in vigore in tutti gli stati membri UE uniformandoli sotto un unico codice.Il Regolamento introduce nuove tutele a favore degli interessati, e nuovi obblighi a carico dei Titolari.Il Regolamento Europeo avrà anzitutto gli obiettivi di garantire:

 

  • una maggiore protezione dei dati, anche alla luce delle sempre nuove tecnologie digitali utilizzate per il loro trattamento e conservazione, allo stesso tempo semplificando alcune procedure, evitando una eccessiva burocratizzazione;
  • una maggiore armonizzazione normativa a livello dell'intera UE, evitando palesi discrepanze nella gestione dei dati, le quali comportano attualmente un evidente danno e disorientamento per gli utenti.


Le aziende e le organizzazioni in genere, pubbliche e private, saranno chiamate a:

  • formare e nominare il "Data Protection Officer - DPO" (ossia il “responsabile della protezione dati”): obbligatorio per le aziende private con trattamenti di dati particolari, nonché in tutte le pubbliche amministrazioni. Ulteriori informazioni sono disponibili sul sito del garante privacy. Maggiori informazioni qui
  • eseguire il "data protection impact assessment", ossia effettuare una valutazione complessiva dell'impatto-privacy all’interno dell’azienda o della pubblica amministrazione, che permetta di applicare idonee misure di sicurezza tecniche e organizzative, secondo le definizioni del nuovo Regolamento;
  • tenere il registro delle attività di trattamento; riguarda le aziende con più di 250 dipendenti o quelle che trattano dati particolari, comprese quelle piccole che svolgono servizi in outsourcing quali responsabili del trattamento (ad es.: gli installatori di sistemi di videosorveglianza);
  • notificare all'Autorità competente ed agli stessi utenti le violazioni dei dati personali (così detti “data breach”), avvenute al proprio interno (es. accessi abusivi, usi non consentiti, perdita di una “chiavetta”), entro un termine rapidissimo (72 ore dalla scoperta della violazione).
  • applicare il principio generale denominato "privacy by design", cioè la necessità di tenere in debito conto la privacy durante tutto il ciclo di vita dei dati, già dal momento della progettazione di un prodotto o servizio;
  • consentire agli interessati il "diritto all’oblio", ossia la possibilità di decidere quali informazioni possano continuare a circolare (in particolare nel mondo on-line) dopo un determinato periodo di tempo, fatte salve specifiche esigenze (ad esempio, per rispettare obblighi di legge);
  • consentire agli interessati il diritto alla "portabilità del dato" (ad es. nel caso in cui si intendesse trasferire i propri dati da un soggetto giuridico ad un altro, come nel cloud computing).

 contattaci qui o chiamaci allo 0423 565517 per maggiori informazioni o per un risk assessment del tuo business

 

Che cos'è il Software-Defined Storage e perché cambia il significato alla governance by luca nogara

 

Virtualizzare informati, abbandonando la complessità dell'hardware per scegliere la via del software (e degli hypervisor). Nel caso della Storage Area Network l'approccio software-defined garantisce una scalabilità on demand e semplifica la gestione, offrendo una grande semplicità di utilizzo, flessibilità di implementazione e backup ottimizzati

abstract - fonte www.digital4.biz - puoi trovare l'articolo originale qui

Parte integrante del DNA informatico aziendale, lo storage non riguarda soltanto la memorizzazione dei dati ma anche e soprattutto le logiche di archiviazione e di accesso sottese. A ben guardare, infatti, sono queste ultime a caratterizzare le varie epoche dello storage e il relativo impatto sui data center. Così se ieri il tormentone dei CIO erano le attività di BackUp, oggi le LOB (line of business) si ritrovano in vario modo a parlare di Big Data Management. Ma più ancora che la quantità di dati da dover gestire, la sfida è orientarsi nel mare magnum delle opzioni tecnologiche oggi a disposizione delle aziende.

 

Dai sistemi a nastro a quelli su disco, magnetici e ottici, dall'Object Storage Deviceall'approccio Solid State Drive basato su un uso intelligente della memoria Flash fino ad arrivare allo Storage Software Defined, le tecnologie di memorizzazione diversificano gli orizzonti dello sviluppo. Cosa cambia dall'una all'altra? In primis i tempi di latenza nell'accesso ai dati memorizzati. L'indisponibilità di un'informazione, nell'era del time to market, non è mai un buon indicatore di servizio per un data center. In pratica, non serve avere un ottimo sistema di archiviazione in termini di capacità e di sicurezza se poi i tempi di accesso alle informazioni sono lunghi.

Il mantra dello storage? Un'informazione veloce

La responsabilità cruciale degli IT manager aziendali è diventata saper gestire e distribuire con efficienza applicazioni e dati. Come? Là dove serve, garantendo anche performance di fruizione accettabili a seconda delle diverse tipologie di utenti, che sono in numero maggiore (addetti interni, mobile worker, utenti finali) rispetto a prima e che, grazie a una mobilità pervasiva e a una maggior disponibilità di banda, si connettono praticamente sempre e ovunque.

Risolvere lo storage e velocizzare i processi di archiviazione e di recupero dei dati, significa analizzare le infrastrutture esistenti e decidere il tipo di tecnologia da utilizzare, stabilendo il criterio con cui è possibile gestire ambienti fisici e ambienti virtuali in maniera assolutamente dinamica, a seconda delle esigenze. Capire quali sono i dati più richiesti in modo da impostare una prioritizzazione intelligente non è mai banale e gli strumenti automatici aiutano non poco a stabilire i criteri più adeguati.

Collaboration, Cloud ed ERP "unificato": le tre priorità dei CPO nel 2016 by luca nogara

Mentre il Procurement è conservatore per natura, il mondo delle imprese continua a evolversi trainata dall'innovazione tecnologica. La funzione acquisti è oggi chiamata a una scelta: essere modellata da questi cambiamenti o esserne partecipe in modo proattivo. Una survey di Procurement Leaders su 400 Responsabili Acquisti analizza i trend in atto

abstract - fonte www.digital4.biz - puoi trovare l'articolo originale qui

Gli ingranaggi del sistema di Procurement tendono a girare lentamente e i nuovi trend rilevati non sempre hanno effetto immediato. È un mondo a due velocità in cui difficilmente si riesce a stare al passo con la digital transformation.

Il 2016 probabilmente non sarà un anno di rivoluzione, ma di cambiamento graduale e continuativo. Anche perchè ancora si riscontra una certa riluttanza ad adottare nuovi strumenti tecnologici all’interno della funzione acquisti. Per fortuna i CPO, pur con un atteggiamento conservatore, sono tra i principali sponsor dell’innovazione, se introdotta gradualmente. Chiaramente un simile atteggiamento può essere penalizzante per le aziende, che rischiano di perdere terreno rispetto ai competitor che giocano con convinzione la partita dell’innovazione.

Per capire meglio gli impatti che la trasformazione digitale ha sul processo di acquisto,Procurement Leaders ha condotto una survey su oltre 400 CPO e Responsabili Acquisti, per comprendere quale impatto hanno i nuovi trend tecnologici.

Innanzitutto è emerso che le aree di maggior interesse riguardano la gestione nei sistemi informativi dei processi di collaborazione, i sistemi ERP e il Cloud Computing.