Azienda Digitale

Strategie di mobile marketing: quali sono gli ultimi trend della comunicazione multicanale by luca nogara

Smartphone e tablet hanno frammentato il viaggio del consumatore che oggi si compone di migliaia di istanti che nascono, di volta in volta, da esigenze diverse e specifiche. Dallo ZMOT ai micro moments, come si progetta un percorso interattivo in chiave mobile che va a moltiplicare i punti di contatto tra brand e consumatori? Ecco alcuni suggerimenti utili per far crescere le opportunità di ingaggio e il fatturato sfruttando le potenzialità dello strumento tecnologico più personale di tutti: lo smartphone

fonte:  digital4.biz  . l'articolo originale  qui

fonte: digital4.biz . l'articolo originale qui

C'è la multicanalità e c'è la mobile experience. Sembrano la stessa cosa ma, in realtà, non lo sono. Gestire la mobile experience nell'era della multicanalità, infatti, significa tante cose: intercettare nuove esigenze, costruire diversi canali di relazione, progettare format di comunicazione più innovativi, immaginare touch point inediti atti a favorire le interazioni tra il mondo fisico e il mondo digitale, ragionare responsive per garantire che i messaggi siano sempre leggibili da qualsiasi dispositivo, il tutto analizzando scelte e feed back. 

Perché farlo è chiaro: l'Osservatorio Mobile B2C Strategy del Politecnico di Milano ha evidenziato come solo in Italia oggi una persona su due, in età compresa tra 18-74 anni, naviga in rete da dispositivo mobile. Prendendo a campione lo scorso novembre 2015, gli italiani presenti online sono stati 22.2 milioni: 18.4 milioni da device mobili e 12.2 milioni da desktop. In aumento anche il tempo trascorso in rete (1 h e 58 min.) con più del 70% di traffico generato da dispositivi mobili. Per il marketing questo è molto più di un target: è un business a capacità infinita, che si operi nel retail, nel manufacturing, nell'entertaiment, nei servizi, nelle utility o in qualunque altro settore. Non a caso la pubblicità in chiave mobile è salita del 53%.

Marketer, ma quanto sei phygital?

Studiare una strategia di mobile marketing efficace richiede una competenza multidisciplinare. Bisogna triangolare vision, tecnologie e skill, ragionando su due livelli: fisico e digitale. Rispetto alle strategie di marketing tradizionali, la differenza sostanziale sta nel fatto che i dispositivi mobili sono diventati dei punti di contatto strategici non solo perché le persone possono navigare, leggere i messaggi o gestire la posta elettronica. L’apertura delle e-mail da Mobile, ad esempio, è un fenomeno in rapida crescita. Secondo gli ultimi dati resi noti da Easysendy, infatti, è un’abitudine comune controllare il 90% delle proprie e-mail su uno smartphone, perciò è indispensabile sviluppare le newsletter aziendali e le campagne via e-mail progettando un design “mobile responsive”. Partiamo dal dato che, su 2,6 miliardi di utenti che usano le e-mail, 0,9 sono utenti desktop e 1,7 miliardi sono utenti mobile; riguardo l’open rate, è interessante osservare che nel settore abbigliamento il tasso di apertura da mobile è al 47%, mentre da desktop è al 53%. Nel travel & hospitality la differenza è ancora schiacciante e a favore del desktop, che arriva al 69%, contro il 31% delle aperture via mobile. Per quanto concerne le conversioni, i dati sono piuttosto simili (per esempio 70% desktop contro 30% mobile per il settore travel), tuttavia il dato sulle condivisioni delle e-mail fornisce un’informazione preziosa: gli utenti sono più propensi a condividere da mobile anziché da desktop. Infatti nel 2016 (il dato più recente), il 55% degli utenti ha condiviso da smartphone o tablet la mail ricevuta da un brand, e solo il 16% lo ha fatto da desktop.

Oggi, grazie all'uso di app ma anche di soluzioni come i qr code, i tag NFC o i beacon, smartphone e tablet consentono al marketing di innestare formule di ingaggio in cui il brand propone una call to action e il consumatore ha di fronte diverse opzioni. Questo significa saper progettare il customer journey usando non soltanto una combinazione di tecnologie per innescare l'ingaggio, ma anche di pianificare un palinsesto strutturato di azioni e di servizi associati al percorso fisico e digitale del cliente che si muove in un'area dinamica costituita da uno spazio fisico (off line) e da un universo digitale (on line).

Il tutto partendo da un presupposto fondamentale: una comunicazione di successo mobile ha bisogno di un web responsive design. Il mobile marketing deve tenere conto delle nuove tecniche di progettazione dei siti, in modo da garantire che i contenuti si adattino automaticamente al dispositivo da cui vengono letti. Senza entrare nel dettaglio significa utilizzare degli HTML adeguati al device, altrimenti i messaggi, per quanto risolti e funzionali dal punto di vista della grafica e della comunicazione, risulteranno illeggibili. 

Segue poi il tema più concettuale della call to action, legata alla progettazione di:

  • un format: banner, bottone, landing page, newsletter, SMS
  • una grafica adeguata, cioé accattivante e funzionale
  • un copy efficace, cioé ingaggiante e convincente
  • uno storytelling di riferimento, capace di creare un contesto di senso interessante
  • un percorso interattivo che va a moltiplicare i punti di contatto del brand sulla mappa del customer journey

In questo senso il marketing diventa phygital (physical & digital)

Zmot: non uno ma tantissimi micro moments

A questo proposito il Signore dei browser insegna. Google, infatti, dopo aver analizzato e identificato lo Zero Moments Of Truth (ZMOT) come istante cruciale nel processo che porta alla decisione d'acquisto, ha scoperto un altro tassello importante del customer journey: imicro moments. Il principio del ragionamento è semplice: smartphone e tablet hanno frammentato a tal punto il viaggio del consumatore che oggi si compone di migliaia di istanti che nascono, di volta in volta da esigenze diverse e specifiche.

Se lo Zmot rappresenta l’istante in cui allo stimolo segue la vera decisione che porta il consumatore a volersi impossessare di un certo bene, i micro moments sono quei momenti di interazione, per loro natura brevi e ripetuti, che moltiplicano la quantità di ZMOT rispetto al customer journey del cliente smartphone dotato.

Grazie alle peculiarità del Mobile, i brand possono studiare le loro nuove strategie di ingaggio, più precise e più personali che mai, trasformando i micro moments in punti preferenziali di contatto, che coprono qualsiasi tempo e qualsiasi luogo. Come deve cambiare l’approccio del marketing digitale per sfruttare questi momenti di interazione? Gli esperti di Google svelano il segreto: giocando di anticipo rispetto ai bisogni degli utenti, offrendo esperienze capaci di permanere nella mente del consumatore. Come? Secondo 4 regole fondamentali:

  1. Esserci Come? Moltiplicando la presenza nei diversi punti del Customer Journey, imparando a sfruttare una strategia convergente e integrata
  2. Essere utili Come? Dando ai consumatori contenuti per loro rilevanti. Content is the King vale anche in una strategia mobile
  3. Essere veloci Come? Garantendo una mobile experience intuitiva, fluida e rapida. Non ci devono essere punto di attrito o di freno
  4. Essere intelligenti Come? Misurando con precisione il ritorno delle campagne. Questo guiderà le successive scelte di comunicazione in base a dati accurati

Comunicazione bidirezionale: ascoltare per farsi ascoltare

Questa nuova bidirezionalità del mobile marketing obbliga a un ripensamento della comunicazione alla luce delle nuove possibilità offerte dai sistemi di tracciamento e misurazione dei comportamenti on line. Impression, numero di click, rapporto tra impression e click (CTR - Click Through Rate), quantità di lead o di vendite generate da un'azione di mobile marketing, ad esempio, aiutano a gestire tramite algoritmi e sistemi di analisi (Web Analytics) una serie di informazioni preziose per capire se l'andamento della strategia è più o meno efficace e intervenire in modo proattivo.

Oggi, ad esempio, l’utilizzo di tecniche di Lead Scoring consentono ai brand di analizzare le interazioni degli utenti, misurarle in ottica temporale attribuendo punteggi basati sul comportamento (behavior) e sui dati acquisiti (demographics) nelle diverse esperienze di contatto. La possibilità di comprendere in dettaglio il comportamento degli utenti giunge fino alla possibilità di predire azioni e attitudini successive, siano esse conversioni (funnel) che specifici eventi.

Le analisi aiutano a profilare al meglio gli utenti mobili e a definire servizi ad alto tasso di personalizzazione. Questo garantisce un grado di esperienza superiore, aumentando l'efficacia dell'interazione.

Uno dei vantaggi della digital transformation è che oggi esistono piattaforme per la gestione di tutti questi aspetti, che consentono di creare, distribuire e misurare le compagane di marketing in chiave mobile, risolvendo tutto il percorso della comunicazione multicanale dall'invio di un SMS alla condivisione sui social per arrivare alla pubblicazione on line di una landing page. Il tutto misurando le performance attraverso analitiche di dettaglio, secondo il miglior Big Data Management.

 

La fotografia del mobile commerce in Italia

Con una crescita del 63% rispetto al 2015, la spesa degli italiani in mobile commerce ha raggiunto, a fine 2016 (ultima rilevazione disponibile dell’Osservatorio Mobile B2C Strategy del Politecnico di Milano), quota 3,3 miliardi di euro triplicando in due anni il suo valore. Oggi arriva a pesare per ben il 17% sul giro d’affari complessivo del commercio elettronico nel Belpaese, e in alcune realtà la percentuale sale addirittura al 50%. Sul fronte dei prodotti commercializzati giocano un ruolo fondamentale sia i siti con modelli di business in cui conta l’istante d’acquisto (ad esempio i siti di “flash sales”) sia le iniziative (in primis in marketplace) che hanno investito per offrire una customer experience semplice ed efficace, ottimizzata per il canale mobile. A livello di servizi, è preponderante l’acquisto di biglietti di trasporto (aerei e ferroviari) e la prenotazione di alloggi (in hotel e case private). In generale, però, sottolineano gli esperti del Polimi, cresce la familiarità degli utenti verso gli acquisti da smartphone e tablet, con prospettive di sviluppo interessanti per tutti i settori.

Data Protection: la valutazione di impatto prevista dal GDPR by luca nogara

Dal 25 maggio 2018, giorno di applicazione del nuovo regolamento UE sulla privacy, per la corretta gestione del trattamento e della sicurezza dei dati personali vanno valutati i rischi delle violazioni e le possibili conseguenze. Ecco cosa prevede il testo, appena approvato in via definitiva, relativo Data protection impact assessment” (DPIA)

fonte:  digital4.biz  . l'articolo originale  qui

fonte: digital4.biz . l'articolo originale qui

La data protection impact assessment (DPIA), la valutazione d’impatto in caso di violazione della Data Protection, è stata definita da Gruppo di Lavoro del GDPR (WP29) lo scorso 4 ottobre 2017 (qui il testo definitivo doc. WP248rev.01). Come ben noto agli “addetti ai lavori”, dal 25 maggio 2018, giorno di applicazione del GDPR, il Regolamento UE sulla data protection n. 2016/679, la corretta gestione del trattamento e della sicurezza dei dati personali dovrà tenere conto della DPIA.

Cos'è la Data protection impact assessment (DPIA) e quando è obbligatoria

Premettiamo sin da subito come la DPIA altro non sia che una valutazione preliminare degli impatti a cui andrebbe incontro un trattamento laddove dovessero essere violate le misure di protezione dei dati. Tale valutazione deve tenere in conto sia del grado di rischio che il trattamento possa presentare per i diritti e le libertà delle persone fisiche sia del grado di innovatività della tecnologia con cui viene effettuato il trattamento. In tal senso, una corretta DPIA, così come ribadito dal Gruppo di Lavoro, può essere utile per valutare l’impatto sulla protezione dei dati elaborati attraverso una particolare tecnologia, ad esempio una componente hardware o software.

Inoltre così come sottolineato dalle recenti Linee Guida nonché dal Garante per la Protezione dei Dati personali nella Guida all’applicazione del Regolamento europeo), una singola DPIA potrebbe essere utilizzata per valutare molteplici operazioni di trattamento che sono simili in termini di rischi presentati. Pertanto, compito del Titolare del Trattamento, utilizzando un “risk-based approach”, sarà quello (prima che i dati vengano trattati) di individuare, nello specifico, l’origine, la natura, la probabilità e la gravità del rischio, l’ambito di applicazione, il contesto e le finalità del trattamento stesso in quanto più è elevata la rischiosità del dato, più alte sono le conseguenze in termini d’impatto con l’interessato.

 

Ciò può consentire al Titolare, mediante anche la consultazione del Data Protection Officere dei responsabili del trattamento, di poter identificare le misure appropriate per minimizzare i rischi ed adottare costantemente (tenuto conto dello stato dell’arte) ogni misura tecnica, giuridica ed organizzativa in quanto una semplice variabilità del rischio potrebbe generare ulteriori attività da svolgere.

Le Linee Guida offrono ulteriori precisazioni tra cui, a titolo esemplificativo: un elenco di operazioni di trattamento di dati personali rispetto alle quali l’effettuazione della valutazioned’impatto deve ritenersi obbligatoria nonché un elenco di operazioni di trattamento rispetto alle quali la valutazione d’impatto non è necessaria; criteri comuni aventi ad oggetto sia la metodologia da adottare per l’effettuazione della valutazione d’impatto sia la definizione dei casi in cui è necessario consultare l’Autorità di controllo; raccomandazioni sulla base dell’esperienza acquisita negli Stati membri dell’UE.

 

GDPR: cosa c’è da sapere sulla profilazione di clienti e consumatori by luca nogara

25 maggio 2018 trattamento dei dati personali siti webdevono essere the eu stati membri gdpr general data protection regulation pubbliche amministrazionigenerale sulla protezione unione europea data breach propri dati personali by design tratta di dati partire dal 25 maggioviolazione dei dati titolare del trattamento regolamento ue 2016/679 sicurezza dei dat regolamento gdpr

Read More

Come e perché la trasformazione digitale impone una nuova cultura aziendale di sicurezza by luca nogara

Per Gartner entro 3 anni il 95% degli attacchi sarà colpa dei comportamenti sbagliati degli utenti. Il costo? Nel caso del furto di dati sensibili, la sanzione amministrativa oggi va da 10mila a 120mila euro. Bissel (Accenture): occorre un approccio specifico per ogni settore che tuteli l’intera catena del valore. Bechelli (Clusit): il digitale impone una comprensione più ampia dei vantaggi, ma anche dei rischi del cyberspazio

fonte:  digital4.biz  . l'articolo originale  qui

fonte: digital4.biz . l'articolo originale qui

 

La trasformazione digitale offre un livello di comunicazione e di interazione che non ha precedenti nella storia. Il fenomeno dell'omnicanalità riguarda le 6C di un'utenza globale: Colleghi, Collaboratori, Competitor, Clienti, Cittadini e Consumatori... Gran parte della popolazione oggi è connessa: smartphone-dotata, ma anche tablet-dotata e pc-dotata. La consumerizzazione dell'IT ha portato i dipendenti a utilizzare con disinvoltura schermi touchscreen e menu di navigazione. Crescono le installazioni interattive: totem, chioschi, tavoli, specchi, pareti portano a bordo una nuova intelligenza applicativa. Tutto questo senza corsi di formazione aziendale perché a vincere è un passaparola bimodale (off line e online). 

L'abitudine a utilizzare Internet in tutte le sue forme ha inaugurato l'economia delle App, favorendo anche una più immediata comprensione dei vantaggi associati al cloud. Con tutte le conseguenze annesse e connesse.

Secondo Gartner da qui al 2020 il 95% degli attacchi alla sicurezza sarà colpa dei comportamenti sbagliati degli utenti (Fonte: Gartner Top Prediction for IT Organizations and Users for 2016 and Beyond). Gli analisti puntano l'attenzione sull'ingenuità delle persone che, deviate dai vantaggi e dalla semplicità delle tecnologie, non si rendono conto dei rischi e nemmeno conoscono le regole base della sicurezza rispetto alla gestione delle identità e degli accessi. Dal furti di dati alla paralisi dell'attività, lo scotto da pagare è ormai noto e dovrebbe far riflettere l'intero board aziendale.

Prendiamo il caso di un’organizzazione che in Italia subisca un attacco informatico da parte di alcuni hacker che riescono ad accedere ai dati sensibili e a diffonderli via web. Al momento, se gli interessati fanno ricorso al Garante della Privacy e si scopre che il titolare del trattamento (l’azienda) non aveva adottato le misure minime di sicurezza per la protezione dei dati, prescritte all’art. 33 del Codice della Privacy (CDP), la sanzione amministrativa va da un minimo di 10.000 euro a un massimo di 120.000 euro, comminati dal Garante e senza passare dall’autorità giudiziaria, ex art. 162 c. 2-bis CDP. In sede di giudizio penale la sanzione va a sommarsi  all'Ex art. 169 CDP per cui è previsto l’arresto fino a 2 anni (a questo link, la tabella di dettaglio)

Ma le aziende sanno quanto costa il cybercrime?

Quanto costa il cybercrime alle aziende? Gli analisti parlano di 11,7 milioni di dollari per azienda, con un aumento del 23% rispetto ai 9,5 milioni di dollari registrati nel 2016 e del 62% nell’ultimo quinquennio (Fonte: “Cost of Cyber Crime Study” - Accenture e Ponemon Institute, Settembre 2017). In media un’azienda subisce 130 violazioni all’anno (+ 27,4% rispetto al 2016) che si traducono in infiltrazioni nella rete o nei sistemi aziendali.

Kelly Bissell, Managing Director di Accenture Security"È necessario che le organizzazioni adottino una strategia di sicurezza dinamica e agile - afferma Kelly Bissell, Managing Director di Accenture Security -, che costruisca resilienza dall’interno e non si focalizzi sulla difesa del perimetro. Occorre inoltre un approccio che sia specifico per ciascun settore e che tuteli l’intera catena del valore dell’azienda. Le conseguenze del cybercrime che le aziende subiscono a causa dei crimini informatici sono sempre più costose e devastanti, sottolineando l’importanza crescente di una pianificazione strategica e di un monitoraggio costante degli investimenti in sicurezza”.

Riportata ai suoi fondamentali, la questione è semplice: la gestione della sicurezza associata alla trasformazione digitale oggi non può essere più scaricata solo sui CIO o sui CISO che, facendo conto dei budget messi a loro disposizione, fanno miracoli per garantire la business continuity, la tutela dei dati e la protezione delle risorse aziendali.

Serve una consapevolezza più ampia e funzionale di cosa significhi risk management nell'era della trasformazione digitale, della Web Economy, delle aziende liquide e di tutti quegli orizzonti di servizio in continuo divenire che portano più fatturato ma anche più margini di rischio. È ora di lavorare a livello utente, offrendo un po' più di cultura ma anche soluzioni più puntuali in caso di perdite di dati e di fermi informatici. Serve maggiore consapevolezza a tutti i livelli dell'organizzazione.

Quando il cloud è l'abilitatore della trasformazione digitale

Luca BechelliLa questione è che non c'è trasformazione digitale senza una governance delle infrastrutture e dei servizi. L'uso del cloud, ad esempio, cresce perché economicamente più comodo, ma quasi 7 aziende su 10 nutrono ancora molte riserve. Secondo l'Osservatorio Cloud e ICT as A Service del Politecnico di Milano il 67% delle imprese indica come principale fattore di inibizione la sicurezza e la privacy.

Eppure la sicurezza viene ancora considerata una componente addizionale perché le aziende seguono ancora un approccio banalmente costruttivo: prima creo l'infrastruttura e dopo penso alla sicurezza. Questa protezione non nativa, però, ha un impatto notevole sulle aziende.

"L’Italia è uno dei Paesi in cui c’è una percentuale di adozione del cloud tra le più alte in Europa (siamo i secondi tra tutti i Paesi) - spiega Luca Bechelli, Membro del Comitato Tecnico Scientifico, CLUSIT e consulente indipendente per la sicurezza informatica -. Eppure, rispetto al cloud, ci sono ancora molti limiti a livello di vision. Le aziende che ricorrono a servizi cloud, spesso non lo fanno nel modo corretto. A questo si aggiunge il problema dello shadow IT. Quante volte i nostri colleghi, in buona fede, si portano il lavoro a casa inviando una mail d’ufficio sul proprio account privato o caricandosi su un servizio di file sharing il lavoro (magari perché non gli abbiamo fornito un’alternativa aziendale valida per fare questo mestiere)? Da qui le preoccupazioni principali delle aziende: da recenti studi è emerso che il 64% delle aziende sono preoccupate di non sapere dove sono dati importanti, perché hanno perso di vista il modo in cui le informazioni viaggiano. Insomma, lo scenario effettivamente caratterizzato da molti problemi e da un approccio disfunzionale. La questione è che l’attaccante può essere qualcuno che sta a centinaia di km da noi, ma la maggior parte degli attacchi oggi si determina perché l’utente fa click". 

 

Spostare la complessità non significa dimenticare la sicurezza

Vero è che il cloud rende talmente efficiente e facile agli utenti l’uso dei sistemi da fornire la percezione di una riduzione delle complessità e questo si traduce troppo spesso in un'adozione di pratiche povere dal punto di vista della sicurezza. Bisogna invece ricordare che la complessità c’è ancora: è solo stata spostata e l'azienda deve comunque preoccuparsi di gestire la sua parte. 

"Dall’altra parte vediamo che sono importanti le quote di altre tipologie di cloud - ribadisce Bechelli - quindi Software as a Service (SaaS) e Platform as a Service (PaaS), con modalità di servizi centrali per il funzionamento dell’azienda: CRM, ERP, amministrazione, la stessa software automation delle mail che spesso viene sottovalutata e dove si trovano i dati più critici dell’azienda perché per quanto noi pensiamo di metterli all’interno di repository protetti, poi li facciamo comunque circolare nelle varie versioni. Il tema degli endpoint che accedono al cloud non è più solo il pc, ma una serie di dispositivi fissi e mobili che vanno protetti e tutelati perché la sicurezza che potremmo denominare Agile, ancora non esiste. I dati Clusit sulla crescita del cybercrime si commentano da soli".

 

Come evidenzia Bechelli, anche le aziende che non sono in cloud sono ormai di fronte a un bivio: se sono in cloud i suoi partner, ad esempio, un'organizzazione che credeva di non essere in cloud può scoprire di esserlo.

"Dobbiamo capire oggi che la nostra azienda è cambiata - conclude l'esperto -: non ha neanche più senso parlare di azienda mobile, che lo è già per definizione dal momento che i nostri dipendenti hanno un cellulare e, trovando aperta la porta del server di mail, cominciano a scaricare la posta sul proprio device. A quel punto siamo già mobili e dobbiamo pensare in mobilità. La trasformazione digitale è un'evoluzione delle esigenze dei colleghi che vogliono essere mobili, agili e che interagiscono in molti modi con il resto del mondo: non solo dal pc blindato tradizionale, ma anche con altri media che possono essere vulnerabili ad attacchi e possono mettere in crisi l’operatività".

 

Insomma, aggiornare gli antivirus non è più sufficiente. Il board aziendale deve imparare a guardare l'azienda in modo molto diverso, andando ben oltre il tema del GDPR. La normativa che entrerà in vigore a maggio del 2018 ha il merito di aver l'attenzione sul tema della protezione dei dati offrendo l'opportunità di rivedere posizioni e policy, ma non risolve certo la totalità della governance. CFO, CEO, COO... tutti gli executive devono imparare a vivere la trasformazione digitale con una visione della sicurezza non solo più responsabile ma anche più lungimirante.

Philip Kotler spiega il nuovo marketing: «L'unica via per la crescita» by luca nogara

Il più noto esperto mondiale, in Italia in occasione del Forum che porta il suo nome, ha tenuto una lezione sul futuro del marketing, sostenendo che «la formula per la crescita dell'economia e del business è data da “Innovazione + Marketing”», e che le note 4P (Product, Price, Place, Promotion) sono ormai soppiantate dalle 5C (Customers, Company, Collaborators, Competitors, Context). E ha descritto il CMO di oggi: orientato ai dati e al ROI

 

fonte:  digital4.biz  . l'articolo originale  qui

fonte: digital4.biz . l'articolo originale qui

Arrivato in Italia per partecipare all’ormai consueto appuntamento annuale con il Philip Kotler Marketing Forum (PKMF), Philip Kotler, il guru riconosciuto a livello mondiale come il più grande esperto di marketing, ha tenuto incollato il pubblico con oltre due ore di lezione e riflessioni sul futuro del marketing. Un futuro che vede il marketing elemento imprescindibile della formula che, insieme all’innovazione, rappresenta l’unica via possibile per la crescita del business, soprattutto nell’era digitale della new economy.

La centralità del consumatore spinge a ripensare il marketing in ottica lean

Luca Pellegrini, Docente Ordinario di Marketing presso la IULMA precedere l’intervento di Kotler è stato il Professor Luca Pellegrini, Docente Ordinario di Marketing presso la IULM – Libera Università di Lingue e Scienze della Comunicazione, il quale, ammettendo ironicamente di sentirsi «come un prete di paese che deve accogliere il Papa», ha detto di Kotler: «non è solo uno dei grandi nomi del marketing, è lo studioso che più ha contribuito a fare del marketing una disciplina e che da molti decenni la ripensa e ripropone con lucidità».

«La centralità assunta oggi dal consumatore, in un ambiente molto competitivo, ha spinto il marketing a essergli sempre più vicino, per mantenere un rapporto di empatia in grado di generare risposte coerenti ai suoi nuovi bisogni», ha proseguito Pellegrini. «Il tema del PKMF di quest’anno [R-evolution marketing, approccio manageriale che mira alla riduzione e al recupero degli sprechi nei processi aziendali – ndr] è ancora una volta la dimostrazione di quanto Kotler sia attento al cambiamento e a come tradurlo in comportamenti aziendali. Il tema del lean marketing risponde infatti alla necessità di garantire la sostenibilità dei processi di produzione, ma forse ancora di più a una richiesta di trasparenza, di autenticità e di schiettezza che nasce dal rapporto sempre più diretto tra le imprese e le persone attraverso la rete e i social media».

Marketing + innovazione, la formula per la crescita del business

Dando quindi una piccola anticipazione dei temi che Kotler ha poi approfondito a lungo nel corso del suo intervento, il professor Pellegrini ha introdotto il guru mondiale che ha esordito in modo molto diretto parlando di economia e business: «il capitalismo sta distruggendo la democrazia e l’economia: gli stipendi bassi non sono una risposta a produttività e marginalità perché per “far girare” l’economia serve denaro “in mano” ai consumatori che possono così spendere», ha tuonato Kotler.

«L’economia non riflette la realtà, lo fa il marketing. Il business cresce attraverso il valore ed il marketing è quella componente che aiuta ad esprimerlo nell’economia», è la lezione di Kotler sul palco di Milano. «Per esprimere la crescita del business (e dell’economia) c’è una formula: innovazione + marketing».

Una formula dove l’innovazione, ha spiegato Kotler, deve essere considerata come disciplina della creatività (ossia va controllata e guidata) e rappresentare «la capacità di creare qualcosa che abbia un valore per qualcun altro», ed il marketing calato in un contesto aziendale dove si possa modellare una organizzazione basata sul cosiddetto CCDV: create, communicate, deliver, value. «Soprattutto sul fronte “value” - è la considerazione di Kotler durante la sessione di domande moderata da Alberto Mattiacci, Professore di Economia e Gestione delle imprese Università La Sapienza e Presidente della Società Italiana Marketing - oggi il CMO dovrebbe lavorare a stretto contatto con il CFO, cosa che in realtà accade molto raramente».

La relazione tra CMO e CFO, spesso si riduce ad un mero “check” nel processo di definizione del prezzo di un prodotto o di un servizio che l’azienda dovrebbe immettere sul mercato, pilastro del modello di marketing basato sulle 4P (Product, Price, Place, Promotion) che però lo stesso Kotler ha definito obsoleto.

Il modello di marketing delle 4P è obsoleto: è ora delle 5C

«Molte persone pensano che il marketing sia lo strumento di supporto delle vendite, attraverso advertising e promozione», ha spiegato Kotler. «In realtà, il marketing permette di identificare i target ed il mercato ed è quella disciplina che attraverso l’analisi e il planning permette di “dare vita” al CCDV, cioè crea, comunica e rende disponibile ad una community un valore superiore. Il marketing aiuta l’azienda (non solo le vendite!) a scoprire nuove opportunità di mercato e di business, nonché a identificare i bisogni ed i desideri insoddisfatti di una determinata clientela».

Una visione che mette quindi definitivamente in cantina il vecchio modello delle 4P per lasciare spazio alle nuove teorie che vedono il marketing basarsi sui pilastri delle 5C: Customers, Company, Collaborators, Competitors, Context.

Il nuovo marketing: riduzione degli sprechi e valore della community

 

«Le aziende devono capire che nella digital era, nella new economy, anche il marketing deve evolvere partendo dal riconoscere che oggi qualunque tipo di comunicazione, ricerca, acquisto, condivisione passa attraverso uno smartphone», sono le considerazioni finali che Kotler fa sollecitato dal professor Mattiacci. «Le persone sono connesse a livello globale e possono essere influenzate in molti modi differenti, non più solo attraverso l’advertising».

Per le aziende significa poter accedere a una miriade di dati nuovi di cui un singolo utente lascia traccia attraverso differenti touchpoint (acquisti con carta di credito, richiesta di informazioni, ricerca sui motori di ricerca online, chat con help desk, conversazioni sui social media, ecc.). «È il momento degli Analytics 2.0 – dice Kotler – grazie ai quali poter collezionare, correlare, analizzare ed avere informazioni da grandissime moli di dati in real-time e avviare così strategie di marketing automation che tengano conto del contesto, delle abitudini, delle preferenze, delle conversazioni degli utenti».

Nella visione di Kotler, il lean marketing si concretizza con l’utilizzo corretto delle tecnologie che permettono di ottimizzare gli sforzi delle attività di marketing massimizzandone i risultati. In particolare, il CMO deve concentrare gli sforzi su questi pilastri:

  • mobility (ricordarsi che oggi i consumatori prendono decisioni e compiono azioni attraverso un unico oggetto, lo smartphone);
  • dati (non ci si può più limitare ai dati delle vendite, anche se analizzati in tempo reale; i dati a disposizione per prendere decisioni più accurate vanno cercati su tutti i canali che permettono ad un brand di comunicare, relazionarsi, interagire e ingaggiare un utente);
  • social network e community (sono i tasselli fondamentali per la comprensione dei desideri e delle aspettative dei clienti nonché per la loro fidelizzazione)
  • contenuti (l’advertising puro da solo non basta più, serve creare un senso di appartenenza negli utenti attraverso storie ed esperienze inclusive, emozionanti, capaci di attrarre e trattenere a sé un utente nonché mantenere elevata la reputazione del brand);
  • marketing automation (la componente tecnologica che meglio esprime il valore del lean marketing e la sua efficacia, strettamente connessa ai dati, senza i quali rimarrebbe un mero strumento e non una strategia di azione);
  • qualità del servizio (da sempre al centro delle strategie di marketing, con il consumatore al centro diventa elemento differenziante del business)

Cognitive Marketing, le applicazioni già disponibili e quelle che verranno by luca nogara

Secondo IDC più della metà delle aziende sfrutterà il Cognitive Marketing entro il 2020. Ma di cosa si tratta e perché se ne parla tanto in questo momento? Cerchiamo di capirlo dando uno sguardo anche alle applicazioni che già sono in uso da CMO e marketer e quelle che vedremo a breve sul mercato

 

fonte:  digital4.biz  . l'articolo originale  qui

fonte: digital4.biz . l'articolo originale qui

“Scienze cognitive e Marketing” è un binomio non del tutto nuovo, se ne parla dai tempi del Marketing Relazionale che però è sempre stato affrontato in modo molto pragmatico attraverso lo sviluppo di soluzioni - sempre più sofisticate - di CRM. Oggi torna “di moda” perché il cervello umano è sotto i riflettori mondiali per via della forte accelerata che ha avuto lo sviluppo dell’Intelligenza Artificiale (IA) al punto che il Cognitive Marketing è passato dall’essere la disciplina delle scienze cognitive applicate al Marketing all’essere l’insieme delle tecnologie di IA a servizio del Marketing.    

Cos’è il Cognitive Marketing

Se volessimo ridurre al massimo della semplificazione la spiegazione, potremmo dire che il marketing cognitivo è “semplicemente” la mente che c’è dietro un messaggio o un contenuto che si intende trasmettere, ma la mente non è quella del creativo che deve ideare la campagna ma quella dell’utente a cui è destinata. È da quest’ultima prospettiva che si intuisce allora la potenzialità del Cognitive Marketing perché esprime al meglio l’obiettivo finale: catturare l’attenzione, le emozioni, l’interesse, la fidelizzazione degli utenti capendo come “far breccia” nelle loro menti.

La definizione “tradizionale” di marketing cognitivo riguarda infatti la connessione “mentale” che si crea tra brand ed utenti/clienti che influenza in qualche modo il comportamento di questi ultimi. Si tratta di una disciplina più vicina alla Psicologia che al Marketing stesso ma è da anni che sta avvenendo una forte contaminazione delle scienze cognitive e neurali all’interno del mondo dei comunicatori e dei marketer il cui obiettivo finale, si sa, è quello di conquistare e fidelizzare le persone per garantire un risultato di business alla propria azienda. Quale via migliore per superare questa sfida se non quella di sapere cosa vogliono le persone e quindi come “influenzarle”?  

L’Intelligenza Artificiale entra nel Cognitive Marketing: ecco perché se ne parla tanto  

Negli ultimi tre anni l’Intelligenza Artificiale ha fatto un enorme balzo in avanti quanto a progresso tecnologico e si è iniziato a parlare in modo sempre più frequente di sistemi cognitivi (Cognitive computing, Cognitive system, ecc.) per identificare quelle tecnologie il cui funzionamento è ispirato dalle capacità del cervello biologico.

In particolare, la capacità di analizzare in tempo reale grandissime quantità di dati (grazie alla disponibilità in cloud della potenza di calcolo e memoria necessarie nonché degli strumenti diAnalytics sempre più sofisticati) è arrivata oggi a risultati impensabili per una mente umana, nemmeno per una mente umana aiutata da alcuni strumenti informatici come possono essere i CRM evoluti. I Big Data Analytics hanno di fatto rappresentato la prima grande rivoluzione tecnologica del Marketing perché hanno permesso ai marketer di accedere e analizzare grandi moli di dati in tempi molto rapidi avendo così a disposizione informazioni ed una base di conoscenza molto più ampia ed utile per prendere decisioni più mirate ed efficaci.

La fase due, quella che porta il Cognitive Marketing ad un livello ancora superiore, è arrivata, come accennato, con l’Intelligenza Artificiale che oltre a favorire l’analisi in real-time di grandi moli di dati ha dato il via ad automatismi importanti attraverso i quali ai marketer vengono offerte non solo le analisi ma anche le proposte di azione, i suggerimenti di comunicazione, gli alert per non perdere il cliente, ecc. ossia tutti quei meccanismi che consentono sia di innescare una connessione tra brand e persone sia di mantenerla.  

Cognitive Marketing: le applicazioni disponibili

Che il Cognitive Marketing (sia nell’accezione di disciplina umanistica sia nei suoi più attuali confini tecnologici) sia visto con interesse dal mercato lo dimostrano diversi studi, non ultimo quello dell’IBM Institute for Business Value (IBV) - “From data deluge to intelligent insights: Adopting cognitive computing to unlock value for marketing and sales” - dal quale si evince che il 64% dei CMO e dei sales leader pensa di adottare tecnologie cognitive nei prossimi tre anni [si tratta di uno studio condotto a livello globale in collaborazione con Oxford Economics coinvolgendo 525 CMO e 389 responsabili vendite appartenenti a tutti i settori industriali e di mercato – ndr].

L’obiettivo primario che spinge ad adottare sistemi di Cognitive Marketing, dichiarato dagli stessi intervistati, è il miglioramento della soddisfazione del cliente con conseguente fidelizzazione e, quindi, risultati finanziari e di business misurabili.

Tenendo conto di queste sfide, vediamo allora quali sono gli strumenti su cui già oggi possono fare affidamento i CMO.

 

1) Predictive Customer Analytics: sistemi di analisi attraverso i quali prevedere il comportamento degli utenti; attraverso l’analisi di grandi quantità di dati (Big Data Analytics), soprattutto non strutturati, provenienti da canali social, video, suoni o immagini, ecc. è possibile oggi creare simulazioni per verificare le potenzialità e l’efficacia di una campagna Marketing prima che venga messa in produzione e avviata sul mercato. Spesso questi strumenti integrano algoritmi di Machine Learning per l’auto-apprendimento che li rendono ancora più efficaci nell’output delle proposte di soluzione.

2) Audience segmentation e Customer Insights: sistemi di analisi attraverso i quali ricostruire in real-time la storia del cliente, anche attraverso informazioni esterne ai sistemi aziendali come quelle contenute per esempio nei social network, oppure per definire in modo più accurato la propria audience di riferimento (generale o specifica per una campagna); si tratta di sistemi che vengono impiegati prevalentemente con l’obiettivo di creare una connessione stabile con il proprio target di utenti e clienti;

3) Personalizzazione dei contenuti: le persone, in generale, desiderano esperienze semplici ma personalizzate. Tanto banale quanto complesso per chi tale esperienza la deve costruire attraverso i corretti contenuti. L’Intelligenza Artificiale applicata al Cognitive Marketing interviene proprio su questi aspetti aiutando i marketer a sviluppare campagne e messaggi personalizzati per audience se non addirittura in real-time per singolo utente (alla base c’è sempre l’analisi in real-time di grandi moli di dati, che spesso richiedono tecnologie avanzate come quelle di riconoscimento del linguaggio naturale - scritto e parlato - o delle immagini, come per esempio il riconoscimento delle emozioni dai volti delle persone).

4) Customer experience: se la personalizzazione dei contenuti è una delle sfide più significative affrontate in questo periodo dai CMO, quella della coerenza dell’esperienza utente lungo tutti i canali di contatto con un brand è forse quella più critica. In questo caso più che di personalizzazione si parla di “coerenza” tra tutti i touch point, cosa non banale dato che oggi gli utenti spaziano dal web al mobile allo store fisico. Anche in questo caso è l’Intelligenza Artificiale a giocare il ruolo primario con tecnologie come quelle del riconoscimento facciale - che per esempio permettono di riconoscere un cliente appena entra in un negozio - abbinate all’analisi in real-time dei dati (che consentono ai responsabili di un negozio di ricostruire in tempi rapidissimi la storia del cliente e quindi di servirlo al meglio).

Il futuro del Cognitive Marketing: le applicazioni che vedremo

Sebbene siano già in uso, le tecnologie di Cognitive Marketing sono ancora lontane dal punto della loro massima maturità e nei prossimi anni vedremo il mercato arricchirsi costantemente di nuove soluzioni e funzionalità tecnologiche. Ecco quelle di cui sentiremo parlare a breve.

1) Generazione automatica di contenuti: se la personalizzazione dei contenuti, delle campagne, dei servizi alla clientela è una delle vie primarie per il miglioramento della soddisfazione del cliente, quella della generazione automatica degli stessi sarà l’elemento di disruption. Qualcosa si sta già intravedendo con le cosiddette “raccomandazioni” sui siti di eCommerce (suggerimenti di acquisto basati sul comportamento di navigazione dell’utente e il suo “storico ordini”) ma l’evoluzione di queste tecnologie arriverà allo sviluppo in real-time di contenuti veri e propri, ossia alla loro generazione automatica per mezzo di sistemi in grado di dialogare in real-time con le persone, analizzare i dati, auto-apprendere.

2) Assistenti virtualia breve si inizieranno a vedere i primi risultati maturi dell’utilizzo dei chatbot e degli assistenti vocali in applicazioni più complesse come quelle degli assistenti virtuali che rappresentano un livello superiore di sofisticazione perché oltre alla comprensione del linguaggio naturale dovranno anche saper interpretare le emozioni e creare quei livelli di empatia che permettono ad una persona di “connettersi” con un’altra o con un brand;

3) Demand Generation (o meglio, Demand Response)l’idea di poter generare a priori la domanda del mercato in modo da persuadere le persone ad acquistare un bene, accedere a un servizio, relazionarsi con un brand è da sempre uno dei must del Marketing strategico ma con i sistemi di Intelligenza Artificiale la prospettiva cambia; in questo caso, più che di salto in avanti in termini di innovazione per una Demand Generation più efficace si parla di vero e proprio cambio di paradigma perché le scienze cognitive integrate all’Intelligenza Artificiale aiuteranno i marketer a conoscere meglio i reali bisogni delle persone sviluppando quindi una proposta convincente e consistente (Demand Response), grazie alla quale il processo di persuasione risulterà semplificato.    

L’innovazione digitale è un gioco di squadra: entrano in campo le Line of Business by luca nogara

La digital transformation è diventata pervasiva e trasversale: nascono progetti strategici in ogni funzione aziendale, da Marketing e Vendite all'HR, fino a Procurement e Supply Chain. Cresce la collaborazione interna, perché la revisione dei processi supera la classica visione organizzativa a silos. È un cambio di passo confermato dalla presenza di budget per l'innovazione al di fuori delle direzioni ICT in oltre un terzo delle grandi imprese italiane

 

fonte:  digital4.biz  . l'articolo originale  qui

fonte: digital4.biz . l'articolo originale qui

 

La trasformazione digitale per moltissime imprese italiane è ormai un piano concreto di attività, progetti e iniziative che coinvolgono tutta l’organizzazione. L'innovazione è diventata pervasiva e ha definitivamente travalicato il confine della direzione ICT, diventando una priorità strategica per le Line of Business.

È un cambio di passo significativo, che abbiamo avuto modo di riscontrare in modo evidente negli ultimi mesipartecipando a convegni e intervistando manager di tante eccellenze italiane, soprattutto nelle grandi aziende e nelle multinazionali (anche quelle “tascabili”) del made in Italy. Tutti confermano che per restare rilevanti sul mercato non solo serve uno sforzo per rivedere prodotti, processi e modelli di business. Serve anche ripensare il concetto stesso di innovazione. Se fino a pochi anni fa erano soltanto i CIO a guidare i progetti che prevedono l’adozione di nuove tecnologie, oggi sono i manager di Line – affiancati dalle direzioni ICT – i principali promotori di iniziative di digitalizzazione e ridisegno dei processi che sono chiamati a governare: è così nel Marketing e nelle vendite, impegnati in progetti omnichannel e per migliorare la customer experience; nelle direzioni HR, chiamate a colmare i gap di competenze digitali o ad adottare nuovi tool di HCM a supporto dei processi; è sempre più vero per i responsabili Procurement e Supply Chain, dove l’uso di piattaforme online B2B garantisce risparmi importanti, trasparenza e velocità.

In questi progetti, tutte le divisioni sono spesso coinvolte in modo collaborativo: la revisione profonda dei processi in chiave digitale e la ricerca di soluzioni innovative che diano slancio alle aziende non possono essere più gestiti nella tradizionale visione a silos, ma richiedono commitment a tutti i livelli apicali, incluso il top management.

 

Ma c’è di più. Si è diffusa con forza la consapevolezza che per fronteggiare giovani e agili concorrenti, società nate in questi ultimi anni con un dna al 100% digitale (una minaccia che spesso arriva da settori anche molto distanti da quello in cui le imprese hanno operato per lungo tempo) serve uno scatto in avanti in termini di cultura, che significa non solo competenze digitali e famigliarità con servizi e tecnologie di nuova generazione, ma anche spirito imprenditoriale, pensiero laterale e creatività. Ora che l’innovazione digitale è diventata trasversale, il concetto stesso di competenze e talenti digitali si va ampliando per coinvolgere ogni livello ed in ogni funzione.

Tante aziende hanno quest’anno avviato in quest'ottica iniziative interdisciplinari, spesso guardando al di fuori del proprio perimetro in un’ottica Open Innovationformazione, Innovation Lab, Contest e Hackathon interni, oltre a nuove relazioni con start up e modelli di governance e sui processi per la gestione dell’Innovazione Digitale. Lo sviluppo di cultura e competenze digitali è inoltre la principale sfida per le Direzioni HRdelle nostre imprese e la quasi totalità dei Responsabili Risorse Umane italiani si è già mossa per adeguare le skills dell’organico aziendale.

La trasformazione organizzativa va di pari passo con gli investimenti in digitale, che ora disegnano una nuova mappa. Lo conferma una recente survey degli Osservatori Digital Innovation, che ha verificato la presenza di interessanti budget per l’Innovazione Digitale, oltre al budget della Direzione ICT, nel 39% delle imprese intervistate, allocati nelle diverse Line of Business e principalmente nelle Direzioni Marketing, Digital e Business Development. Tali budget sono nel 10% dei casi comparabili o superiori a quella della Direzione ICT, in leggero aumento rispetto al dato rilevato nel 2016.

Certo, la strada resta lunga e piena di insidie. L’Italia continua a scontare, a livello di sistema e PA, un ritardo importante rispetto ai paesi più avanzati. Ma il cantiere è aperto e lavora a pieno regime, con il coraggio, l’impegno e la determinazione di tanti innovatori.

Guida alla gestione dei data breach secondo il regolamento GDPR sulla Data protection by luca nogara

Cosa fare in caso di violazioni di dati personali che possano compromettere le libertà e i diritti dei soggetti interessati? A chi rivolgersi? Come comunicarle? La risposta è nelle linee guida pubblicate dal Gruppo di lavoro del nuovo regolamento europeo sulla privacy

 

fonte:  digital4.biz  . l'articolo originale  qui

fonte: digital4.biz . l'articolo originale qui

 

A seguito dell’entrata in vigore del GDPR (Regolamento UE 2016/679 in materia di protezione dei dati personali), il Gruppo di lavoro Art. 29 si è più volte attivato per offrire indicazioni concrete e casi esemplificativi che potessero aiutare gli operatori coinvolti nel trattamento di dati personali a interpretare le disposizioni del Regolamento e a pianificare correttamente il loro adeguamento.

Si collocano in questo scenario le nuove linee guida del Gruppo di lavoro Art. 29 sul data breach (Guidelines on Personal data breach notification under Regulation 2016/679, adottate il 3 ottobre 2017).

Il GDPR disciplina il data breach prevedendo espressamente un obbligo di notifica e comunicazione in capo al titolare, in presenza di violazioni di dati personali che possano compromettere le libertà e i diritti dei soggetti interessati. L’approccio del Regolamento si differenzia nettamente da quello adottato della Direttiva 95/46/CE, che, al contrario, non dispone alcun obbligo generalizzato di notifica. Attualmente, anche il nostro ordinamento prevede un obbligo di notifica frammentario. In recepimento della normativa europea in materia di comunicazioni elettroniche, il Codice privacy ha introdotto uno specifico obbligo di notifica dei data breach esclusivamente per i fornitori di servizi di comunicazioni elettroniche accessibili al pubblico. In altri settori (dati biometrici, dossier sanitario e pubbliche amministrazioni) l’obbligo è stato prescritto attraverso puntuali provvedimenti del Garante privacy. Il nuovo Regolamento, invece, attribuisce alla notifica una funzione essenziale di tutela degli interessati ed estende tale obbligo alla generalità dei titolari di trattamento.

Il criterio dirimente per valutare la necessità di avviare una procedura di notifica è la probabilità che la violazione possa porre a rischio (per la notifica all’autorità) o ad elevato rischio (per la comunicazione agli interessati) le libertà e i diritti degli individui. Appurato il rischio conseguente dalla violazione, gli artt. 33 e 34 del GDPR indicano ai titolari i termini, le modalità, i contenuti e le deroghe della notifica e della comunicazione di data breach.

Le nuove linee guida integrano gli articoli citati e permettono di dare risposta ad una serie di quesiti la cui comprensione risulta di fondamentale importanza per la predisposizione di corrette procedure di notificazione.

Quando il titolare è ritenuto “a conoscenza” di una violazione?

L’art. 33 impone al titolare di notificare la violazione all’autorità di controllo entro 72 ore dal momento in cui ne viene a conoscenza. Il tempo di riferimento da cui iniziano a decorrere i termini della notifica viene individuato quindi nel momento in cui il titolare acquisisce consapevolezza dell’avvenuta violazione.

Nell linee guida, il Gruppo ritiene che debba considerarsi “a conoscenza” il titolare che abbia un ragionevole grado di certezza in merito alla verificazione di un incidente di sicurezza. È evidente che, in base alle specifiche circostanze, mentre alcune violazioni saranno facilmente rilevabili, per altre sarà necessario instaurare un’indagine più approfondita. In questi casi, durante la fase di investigazione, il titolare può essere considerato come privo di un grado di conoscenza tale da far scattare immediatamente l’obbligo di notifica. Ciò precisato, il Gruppo sottolinea che il diligente comportamento del titolare sarà in ogni caso valutato sulla base della sua tempestiva attivazione in caso venga informato di una possibile infrazione. La fase investigativa, quindi, non deve essere abusata per prorogare illegittimamente il termine di notifica.

A tale considerazione si legano le raccomandazioni del Gruppo sia con riferimento alla struttura organizzativa predisposta dal titolare, sia in merito al ruolo del responsabile del trattamento in caso di data breach. In primo luogo, il Gruppo raccomanda ai titolari di predisporre un piano di sicurezza che evidenzi le procedure organizzative interne da adottare nella gestione di eventuali violazioni e l’organigramma dei soggetti o dei livelli direttivi a cui è necessario fare riferimento per riportare l’accadimento.

In merito al responsabile, l’art. 33 dispone l’obbligo in capo a quest’ultimo di informare tempestivamente il titolare dell’avvenuta violazione. Interpretando questo assunto alla luce del rapporto che lega titolare e responsabile, il Gruppo evidenzia come, in linea di principio, il titolare debba considerarsi a conoscenza della violazione nel momento in cui il proprio responsabile ne sia venuto a conoscenza. Non deve quindi esistere alcuna dilazione temporale nelle comunicazioni tra titolare e responsabile, giacché questi viene considerato come estensione fisica dell’attività del titolare e fa perciò scattare automaticamente l’obbligo di notifica in capo al primo.

Su questo punto, le linee guida prospettano l’ipotesi che il responsabile, sulla base di specifica autorizzazione del titolare contrattualmente prevista, possa eseguire personalmente la notifica per conto di quest’ultimo. Ciò non toglie, è bene sottolinearlo, che le responsabilità nei confronti dell’autorità e degli interessati scaturenti dalla notifica o dalla sua mancanza, permangano in capo al titolare. In caso di negligenza, il responsabile potrà rispondere unicamente nei confronti del titolare.

Qual è l’autorità di controllo competente?

L’art. 33 dispone che la notifica debba essere effettuata all’autorità di controllo competente, a norma dell’articolo 55. A sua volta l’art. 55 prevede che ciascuna autorità di controllo è competente per l’esercizio dei compiti e dei poteri assegnatele sul territorio del proprio Stato membro. Dunque, se la violazione si verifica in un determinato Stato membro, sarà all’autorità garante di quello Stato che dovrà essere presentata apposita notifica.

Lo scenario si complica nei casi in cui il trattamento dei dati valichi i confini territoriali nazionali, cosicché una loro violazione possa compromettere i diritti e le libertà di cittadini situati in diversi Pasi membri. In questo caso, il Gruppo chiarisce che dovrà utilizzarsi il meccanismo delle “autorità capofila”, previsto dall’art. 56 del GDPR. Fermo restando quanto disposto dall’art. 55, in caso di trattamenti transfrontalieri di dati personali si considera autorità capofila (e dunque autorità di riferimento anche in caso di notifica di data breach) l’autorità garante situata nello Stato membro presso cui si trova lo stabilimento principale o l’unico stabilimento del titolare o del responsabile. Naturalmente, il titolare rimane libero di notificare la violazione a tutte le autorità degli Stati membri in cui ritiene possano esserci conseguenze pregiudizievoli per gli interessati ivi locati. Tuttavia risulterà compliant anche nel caso decida di eseguire la notifica solo con riferimento all’autorità capofila correttamente individuata. 

Le linee guida, peraltro, ricordano ai titolari che l’obbligo di notifica previsto dall’art. 33 del GDPR deve coordinarsi con ulteriori eventuali obblighi di notifica previsti da altri strumenti normativi. Per esempio, obblighi di notifica in caso di incidenti di sicurezza (categoria ampia che al suo interno ricomprende l’insieme delle violazioni di dati personali) sono presenti nel Regolamento e-IDAS per i fornitori di servizi fiduciari o nella Direttiva NIS per i fornitori di servizi essenziali e di servizi digitali. Dunque, se una società fornitrice di servizi certificati di firma elettronica riscontra una violazione di sicurezza, dovrà non soltanto notificare l’attività illecita alla propria autorità nazionale di riferimento ma, in caso siano coinvolti dati personali dei propri clienti e qualora ne ricorrano i presupposti, dovrà altresì darne riscontro all’autorità garante in materia di dati personali. 

 

Come devono comportarsi i titolari quando non dispongono di sufficienti informazioni sulla violazione?

La notifica ha la funzione di allertare l’autorità e consentire la predisposizione di misure di tutela immediate ai soggetti coinvolti. Elemento centrale della procedura di notificazione è quindi la sua tempestività.

Tuttavia non sempre il titolare, anche quando ha appurato con ragionevole certezza l’esistenza di una violazione, è già in possesso di tutti gli elementi utili per effettuare una descrizione completa ed esaustiva dell’infrazione. Il Gruppo di lavoro chiarisce come il GDPR, tenendo in considerazione la predetta possibilità, mette a disposizione del titolare alcune tecniche o modalità che permettono di bilanciare le esigenze di celerità del messaggio con quelle di una sua sostanziale accuratezza e completezza.

La prima tecnica è l’utilizzo dell’“approssimazione”. Il titolare che non sia ancora in grado di conoscere con certezza il numero di persone e di dati personali interessati dalla violazione può comunicarne in prima battuta un ammontare approssimativo, provvedendo a specificare il numero esatto a seguito di accertamenti.

Secondo strumento previsto dal Regolamento è la “notificazione in fasi”. In questo caso il titolare, per la complessità o estensione della violazione, potrebbe non essere in grado di fornire con immediatezza all’autorità tutte le informazioni necessarie. Potrà allora ottemperare agli obblighi di notifica comunicando, dopo una prima e rapida notifica di alert, tutte le informazioni per fasi successive, aggiornando di volta in volta l’autorità sui nuovi riscontri.

Infine, il Regolamento prevede la possibilità di effettuare una notifica differita, dopo le 72 ore previste dall’art. 33. È il caso in cui, per esempio, un’impresa subisca violazioni ripetute, ravvicinate e di simile natura che interessino un numero elevato di soggetti. Al fine di evitare un aggravio di oneri in capo al titolare e l’invio scaglionato di un numero elevato di notificazioni tra loro identiche, il titolare è autorizzato ad eseguire un’unica “notifica aggregata” di tutte le violazioni occorse nel breve periodo di tempo (anche se superi le 72 ore), purché la notifica motivi le ragioni del ritardo.

Quali sono le modalità di comunicazione all’interessato?

Accanto agli obblighi di notifica all’autorità di controllo, l’art. 34 prevede in capo ai titolari un obbligo di comunicazione agli interessati che consenta loro di attivarsi a tutela dei propri interessi.

Come evidenziato dal Gruppo di lavoro, i due obblighi sono innescati dal superamento di soglie di rischio differenti: è sufficiente un rischio semplice per far sorgere il dovere di notifica, mentre è necessario un rischio “elevato” per attivare quello di comunicazione.

L’adeguatezza di una comunicazione è determinata non solo dal contenuto del messaggio, ma anche dalle modalità di effettuazione. Le linee guida, sulla base dell’art. 34, ricordano che devono sempre essere privilegiate modalità di comunicazione diretta con i soggetti interessati (quali email, SMS o messaggi diretti). Il messaggio dovrebbe essere comunicato in maniera evidente e trasparente, evitando quindi di inviare le informazioni nel contesto di update generali o newsletter, che potrebbero essere facilmente fraintesi dai lettori. Inoltre, dovrebbe tenere conto di possibili formati alternativi di visualizzazione del messaggio e delle diversità linguistiche dei soggetti riceventi (es. l’utilizzo della lingua madre dei soggetti riceventi rende il messaggio immediatamente comprensibile).  

Anche in questo caso, il Regolamento è attento a non gravare i titolari di oneri eccessivi prevedendo che, nel caso la segnalazione diretta richieda sforzi sproporzionati, questa possa essere effettuata attraverso una comunicazione pubblica. Si sottolinea però che anche questo tipo di comunicazione deve mantenere lo stesso grado di efficacia conoscitiva del contatto diretto con l’interessato. Così, mentre può ritenersi adeguata la comunicazione fornita attraverso evidenti banner o notifiche disposte sui siti web, non lo sarà se questa sia limitata all’inserimento della notizia in un blog o in una rassegna stampa.

Come valutare il rischio conseguente a un data breach?

La corretta valutazione dei possibili rischi scaturenti da una violazione è un passaggio importante per un’efficiente gestione del data breach. L’analisi consente al titolare di individuare con prontezza adeguate misure per arginare o eliminare l’intrusione e di valutare la necessità di attivare le procedure di comunicazione e di notifica (che si ricorda si attivano solo al superamento di determinate soglie di rischio). Rispetto alla valutazione effettuata in sede di DPIA (Data Protection Impact Assessment), la valutazione di data breach persegue uno scopo più mirato. Nel primo caso, infatti, si valutano conseguenze potenziali nel caso si verifichi un’ipotetica violazione. Nel caso di data breach, invece, il giudizio prognostico effettuato con il DPIA dovrà essere personalizzato avendo riguardo alle concrete circostanze della violazione. 

Le linee guida rappresentano in questo campo un utile ausilio alle complesse attività di assessment, in quanto forniscono una serie di fattori che i titolari devono tenere in primaria considerazione ai fini della valutazione. In particolare, le conseguenze della violazione varieranno a seconda di: tipo di violazione e natura dei dati violati (es. violazione di riservatezza, di accessibilità o di integrità dei dati; dati sanitari, documenti di identità o numeri di carte di credito); la facilità con cui potrebbero essere identificati gli interessati (es. l’aggressione riguarda dati identificativi o dati personali non direttamente identificativi; era previsto l’utilizzo di tecniche di pseudonimizzazione o crittografia); la gravità delle conseguenze sugli individui in termini di potenziali danni (es. i dati sono stati inviati erroneamente a un fornitore di fiducia o sono stati sottratti da un terzo sconosciuto); speciali caratteristiche e numero degli individui interessati (es. bambini o anziani; violazione massiccia o individuale); particolari caratteristiche del titolare (es. ambito di attività economico o sanitario; contatto frequente con dati sensibili).

Accertato il livello di rischio, il titolare sarà in grado di determinare la necessità o meno di eseguire la notifica all’autorità e la comunicazione agli individui interessati. A titolo esemplificativo, quindi, nel caso una media company perda il temporaneo accesso agli indirizzi email dei propri clienti a causa di un blackout, non sarà necessario procedere alla notifica dell’evento. Al contrario, la temporanea perdita di accesso ai dati sanitari dei pazienti di un ospedale, deve essere considerato un evento che pone a rischio (anche elevato) i diritti degli individui e dovrà perciò essere correttamente gestita ai sensi degli artt. 33 e 34 del GDPR.

Allo stesso modo, lo smarrimento di un CD o di una chiavetta USB contenente dati criptati indecifrabili da terzi, nel caso in cui la chiave crittografica sia nel possesso del titolare e questi possieda un backup di tali dati, potrebbe ritenersi non lesivo nei confronti degli interessati e quindi non obbligatoriamente notificabile. In caso invece la chiave crittografica non sia sicura o non esista un backup dei dati smarriti, sarà necessario attivare le procedure di notifica e comunicazione individuate. 

Data Management Platform (DMP): cosa sono e come aiutano a raggiungere l'audience giusta by luca nogara

Marketing e comunicazione per poter essere efficaci devono focalizzarsi sempre di più sulla user experience e sulla personalizzazione dei messaggi e dei servizi offerti. È proprio per questo che sta crescendo l’utilizzo delle DMP - Data Management Platform, sistemi che aiutano le aziende a raccogliere e organizzare dati e informazioni relative agli utenti per poterle clusterizzare e analizzare, e ottimizzare così gli investimenti pubblicitari

fonte: digital4.biz - potete leggere l'articolo originale qui

Che i dati siano il pilastro portante delle aziende ormai è inequivocabile e indiscutibile. Ancor più importanti e strategici lo sono per le divisioni Marketing che necessitano di informazioni sempre aggiornate per definire i propri piani di azione, programmare l’acquisto di pubblicità o l’avvio di campagne promozionali o di comunicazione, ecc. 

Secondo quanto emerge dall’Osservatorio Internet Media degli Osservatori Digital Innovation del Politecnico di Milanolo spostamento dal semplice acquisto di spazi per la pubblicità verso la necessità di accedere a specifiche audience rende sempre più critica la raccolta e l’organizzazione di dati e informazioni che permettano di clusterizzare gli utenti per poterne analizzare bisogni e comportamenti e, di conseguenza, personalizzare al meglio le attività di marketing e comunicazione.  

A supporto di questo scenario, si osserva da più analisi un crescente utilizzo delle cosiddette DMP - Data Management Platform. Cosa sono le DMP? Si tratta di soluzioni tecnologiche che possiamo raggruppare in due macro-gruppi:

- quelle di natura più “tattica”, finalizzate all’ottimizzazione degli acquisti di spazi media rivolti a specifiche audience;

- quelle di natura più “strategica” il cui obiettivo è raccogliere dati e informazioni non solo per l’acquisto di spazi pubblicitari ma anche per altre attività di marketing e Crm di taglio più “business oriented”.

Quello delle DMP è un mercato complesso, non solo perché, come accennato, ci sono soluzioni differenti a seconda degli obiettivi che si intende raggiungere, ma anche perché si tratta di piattaforme che, in generale, richiedono un continuo aggiornamento e un vero e proprio cambiamento nella governance aziendale della gestione delle informazioni all’interno delle diverse funzioni/divisioni (senza contare che l’investimento iniziale non è banale). Tuttavia, i modelli cloud incentrati sul Software-as-a-Service hanno contribuito alla diffusione di queste tecnologie, tanto da spingere alcune società di analisi come ExchangeWire Research e Weborama a stimare che, entro il 2018, il 92% di agenzie media, inserzionisti e publisher europei implementerà una DMP (analisi che emerge dall’ultimo report “State of the European Data Management Platform market: media usage already mature, but the evolution is not complete”).  

Il messaggio giusto al momento opportuno al target più corretto: è ciò che vuole chi utilizza una DMP

Il campione europeo preso in esame da ExchangeWire Research e Weborama non può dirsi a valenza statistica (360 i professionisti interpellati in Uk, Francia, Spagna e Italia) ma ha il pregio di tracciare gli orizzonti di un trend che negli ultimi due anni ha registrato crescite interessanti anche nel nostro paese. Le DMP sono considerate tecnologie ormai indispensabili dalle aziende che hanno nella pubblicità una forza di propulsione per il business, ma stanno diventando strumenti strategici anche per attività di marketing e comunicazione più ampie dove il dato su clienti, consumatori, utenti diventa il vero asset.

In quest’ottica, ciò che rivela l’indagine europea è interessante: oltre il 75% di coloro che già utilizzano una DMP crea attraverso questi sistemi nuovi volumi di affari proprio grazie ai dati, o meglio, attraverso le campagne corrette, indirizzate al target giusto al momento opportuno (obiettivo raggiungibile solo attraverso il corretto utilizzo dei dati).

Quali dati raccogliere

Quanto alla tipologia di dati “necessari” al raggiungimento di questi obiettivi, una DMP dovrebbe essere in grado di raccogliere ed integrare qualsiasi tipo di dato ma, stando ai risultati europei dell’indagine condotta lo scorso anno, le aziende tendono a collezionare con più sistemicità quelli provenienti dai comportamenti degli utenti sul web (navigazione di siti e app, per l’87% degli intervistati) integrandoli con quelli già presenti nel proprio CRM (nel 64% dei casi). I dati provenienti dai social network iniziano ad entrare nel bacino di raccolta, integrazione e analisi di una DMP anche se con percentuali più basse (solo il 43% delle aziende prese in esame afferma di utilizzarli); è probabile che ne vedremo la crescita come fonte di alimentazione delle DMP nei prossimi 12 mesi.

Bot, assistenti personali e chatbot: il customer service nell'era dell’intelligenza artificiale by luca nogara

Software intelligenti stanno iniziando ad aiutare gli umani nelle interazioni con i clienti. Ma come? Cosa sono e come nascono i chatbot? In cosa si differenziano dagli assistenti personali digitali? Quali servizi permettono di offrire? Quali i vantaggi per le aziende? Ce lo spiega Paolo Cappello, della divisione Digital Interaction di Cefriel, il Digital Innovation and Design Shop collegato al Politecnico di Milano

fonte: digital4.biz - potete leggere l'articolo originale qui

Di chatbot sentiamo parlare sempre più spesso ultimamente, anche se non sempre è chiaro di cosa si tratta. Molti pensano che non si potrà più fare a meno di queste applicazioni per gestire le interazioni con i clienti. I detrattori, invece, sostengono che la tecnologia è ancora troppo immatura per soddisfare le richieste complesse di consumatori sempre più “esperti” e poco inclini alle attese.

Dai Robot ai Bot: una storia che ha radici lontane nel tempo

I chatbot rappresentano l’evoluzione dei cosiddetti personal digital assistant, gli assistenti personali digitali che da vent’anni aiutano gli utenti con interazioni “ricche” gestite da un bot. La parola “bot”, abbreviazione di robot, indica un programma che utilizza per le macchine gli stessi sistemi di comunicazione degli esseri umani. La loro nascita si deve al matematico inglese Alan Mathison Turing, che parla per la prima volta di intelligenza artificiale e di robot che si sostituiscono all’uomo nel lontano 1954. I bot non sono, quindi, cosa nuova. «Oggi – spiega Paolo Cappello, della divisione Digital Interaction di Cefriel, il Digital Innovation and Design Shop collegato al Politecnico di Milano – la tecnologia alla base dei bot è quella che permette alla macchina di interpretare il linguaggio parlato, il cosiddetto linguaggio naturale, unito ad algoritmi di intelligenza artificiale e autoapprendimento. Questi ultimi permettono al sistema di imparare dalle esperienze passate, evolvere e migliorare la propria accuratezza nel fornire risposte o servizi in maniera autonoma».
Nell’ultimo decennio i bot hanno iniziato a farsi conoscere dal pubblico. Famoso è IBM Watson, ma Big Blue non è la sola ad aver investito sulla tecnologia in questione. Clippy, la graffetta interattiva di Office 97 era uno dei primi esempi di bot nella forma di assistente digitale, peraltro piuttosto invadente, che oggi proliferano: Siri (Apple), Cortana (Microsoft), Google Now, Alexa (Amazon)… sono tutti software che, grazie alla capacità di saper interpretare il linguaggio naturale, migliorano la vita degli utenti. Gli assistenti digitali sono in grado di interpretare comandi vocali e in questo differiscono dai chatbot che, invece, rispondono a input di testo.

Cosa sono i chatbot?

I chatbot sono applicazioni che integrano i bot all’interno dei software di instant messaging e che si compongono di diversi elementi: l’interfaccia utente (app di chat) si integra con i servizi di elaborazione del linguaggio naturale (e gli algoritmi di intelligenza artificiale/autoapprendimento) da un lato e con il backend dell’azienda sul quale risiedono i dati da rielaborare in tempo reale dall’altro.
La prima piattaforma a introdurre questo tipo di interazioni è stata Telegram, nel giugno 2015, seguita da Skype, iMessage e WeChat. L’ultima è stata Facebook Messenger, che ha aperto la propria piattaforma alla tecnologia chatbot circa un anno fa. Da allora, però, il numero di chatbot su Facebook Messenger è andato crescendo a ritmi vertiginosi e oggi ha raggiunto quota 33mila.

Quali sono i vantaggi?

«Sicuramente la velocità e la facilità d’utilizzo - spiega Cappello -. I clienti apprezzano la possibilità di ricevere un supporto in qualsiasi momento, anche durante la notte o le feste comandate, ovunque si trovino e in tempo reale». 
Per le aziende questa opzione rappresenta un modo, tutto sommato economico, per fornire un’assistenza 24x7 ai propri clienti, sfruttando un canale di visibilità del proprio brand aggiuntivo e molto utilizzato. L’uso di questi strumenti non richiede nessuna sottoscrizione, registrazione preventiva o login… ormai sappiamo quanto è difficile ricordare username e password e la possibilità di accedere a questi servizi direttamente dalla pagina Facebook di un brand (o dal suo sito web) è particolarmente apprezzata. Si tratta, quindi, di un elemento del cosiddetto “social customer care” che negli ultimi anni assume un ruolo sempre più importante nelle strategie di vicinanza al cliente. Secondo una recente ricerca Microsoft, il 97% dei consumatori utilizza i servizi di customer care erogati attraverso i social nel processo decisionale d’acquisto e il 60% di chi lo ha provato afferma di aver cambiato azienda dopo aver riscontrato un’assistenza scadente. Un’indagine di BI Intelligence stima che sono oltre 10mila le aziende che nel 2016 hanno iniziato a sviluppare chatbot e che nel 2020 l’80% dei brand utilizzerà queste piattaformeGartner, invece, prevede che già entro fine anno solo 1/3 delle interazioni dei servizi di customer care richiederà obbligatoriamente l’interazione umana, mentre la quota rimanente potrà essere sostituita da servizi automatizzati che sfruttano l’intelligenza artificiale.

I vantaggi di una soluzione chatbot

Fonte: Cefriel

Come scovare un servizio chatbot

Per entrare in contatto con il servizio di chatbot di un’azienda su Messenger sarà sufficiente cercare il suo nome nella barra di ricerca dell’app stessa o cliccare un link visualizzato online che, generalmente, è strutturato come m.me/nomeazienda. Su Telegram, invece, sarà sufficiente digitare nella barra di ricerca @nomeazienda. Ma servizi di questo tipo sono disponibili anche per Slack o WeChat.

Come creare un chatbot

Sul web è possibile trovare servizi che permettono di creare assistenti virtuali e chatbot anche se si hanno scarse conoscenze della materia. Tra i più noti, Motion AI, MindIQ, BotChief o Rebotify. Generalmente, la loro costruzione è un processo di tipo grafico (drag-and-drop) che prevede il collegamento in cascata di una serie di moduli di domande e risposte tra loro interrelate.

«In futuro – conclude Cappello – gli sviluppi più promettenti di questo tipo di applicazioni riguarderanno gli assistenti domestici come LG Smart Hub Robot e Olly Emotech, che riconoscono l’utente e, nel caso di Olly, ne percepiscono l’umore sulla base dell’analisi del tono di voce. Interessante anche il mercato degli assistenti personali alla guida. Sperimentazioni in questo ambito arrivano dai Watson Conversation Services di IBM e da Toyota Yui, che instaurano un legame personale con il guidatore, ricordandogli fatti accaduti nei viaggi compiuti in passato e lavorando sul livello di emozioni percepito».

Gli utilizzi delle chatbot

Una distinzione fondamentale dei chatbot è legata alle loro finalità. In questo senso, sono quattro le applicazioni più rilevanti:

 

Commerce bot

Si tratta di applicazioni che permettono di navigare, visionare e acquistare prodotti senza mai abbandonare il programma di chat. Un esempio è il servizio di eCommerce su Messenger della casa di mode britannica Burberry oppure 1-800-Flowers, società americana che vende e consegna composizioni floreali solo tramite chatbot su Messenger.

Customer service bot

Sono servizi attivi 24x7x365 pronti a rispondere alle richieste dei clienti, gestire i reclami e fornire informazioni rilevanti ai fini del supporto alle vendite o alle attività post-vendita. TrackBot, disponibile su piattaforma Messenger, permette di tracciare pacchi e spedizioni di praticamente tutti i corrieri del mondo come DHL, SDA, Bartolini, GLS, UPS e TNT.
Nel panorama dei chatbot impiegati nell’assistenza clienti, si possono poi distinguere 3 sottocategorie. I front-end bot sono conversazioni intrattenute tra i clienti e algoritmi intelligenti di risposta automatica; i bot-assisted agent fanno riferimento, invece, all’interazione del cliente con un operatore (una persona) supportata o abilitata dalla tecnologia bot. Esiste, poi, una forma ibrida, che prevede un’interazione iniziale completamente automatizzata (in cui il chatbot cerca di guidare l’utente verso un albero di possibili risposte pre-configurate) e qualora il cliente non si ritenga soddisfatto lo indirizzi verso una conversazione “live” con un operatore.

Content bot

Sono chatbot che consentono agli utenti di accedere ad avvisi, news o informazioni personalizzate da un feed come quelli realizzati dal canale televisivo americano CNN o da YahooWeather, che inviano messaggi push agli utenti per aggiornarli sulle ultime notizie o su un’allerta meteo.

Event bot

Le aziende che organizzano o gestiscono per conto di altri eventi con una durata limitata nel tempo e un notevole afflusso di persone (una fiera o un concerto, per esempio) potranno trovare conveniente creare un servizio di chatbot mirato agli utenti/partecipanti, attivo solo per il tempo necessario. Esempi di questo tipo sono Eva per la piattaforma Slack o Concierge EventBot per Telegram.

Cloud, smart data, competenze digitali: ecco su cosa devono puntare gli studi per ‘fare la differenza’ by luca nogara

Le professioni giuridiche d’impresa stentano a fare propri i nuovi paradigmi di business e organizzativi, mentre le aziende chiedono loro un supporto per ricevere servizi incisivi sul conto economico. Fornire le indicazioni sulle tendenze in atto è l'obiettivo della quarta edizione dell'Osservatorio Professionisti e Innovazione Digitale del Politecnico di Milano

fonte: digital4.biz - potete leggere l'articolo originale qui

Ormai è chiaro che la digitalizzazione non rappresenta più un’opzione di cui avvalersi, ma un obbligo a cui adeguarsi. Nessuno escluso: dalla Pubblica Amministrazione alle imprese fino ai singoli cittadini.

Ciò su cui si può discutere, semmai, è la velocità con cui si realizzerà il passaggio dall’analogico al digitale pervasivo. Le norme, che abbracciano via via nuove aree da digitalizzare, forniscono, comunque, un valido riferimento, soprattutto per il nostro Paese, che stenta ad appropriarsi spontaneamente dell’innovazione, in particolare di quella digitale.

Le professioni giuridiche d’impresa – avvocati, commercialisti e consulenti del lavoro – vicine più di altre al sistema produttivo, stentano, esse stesse, a interiorizzare nuovi paradigmi di business e organizzativi, da trasferire anche a livello culturale alla clientela aziendale. Poco meno di un terzo di questi professionisti rappresenta l’avanguardia che ha saputo cavalcare la tecnologia per proporsi con nuovi servizi ed elevati livelli di efficienza interna nella gestione delle attività tradizionali, sempre più oggetto di una riduzione della marginalità.

Il mondo dell’impresa chiede nuovi apporti alle professioni, che devono sempre più fornire servizi in grado di incidere sul conto economico delle imprese e non solamente far fronte agli obblighi di legge. Pur necessari, questi ultimi, infatti, non aiutano l’imprenditore a pagare gli stipendi dei dipendenti.

 

Il 7 luglio partirà la quarta edizione dell’Osservatorio Professionisti e Innovazione Digitale, proprio con l’intento di fornire nuove indicazioni sulle tendenze in atto tra gli studi professionali. Dopo aver esaminato nelle scorse edizioni lo status quo, individuato i trend evolutivi e segmentato gli studi in relazione ai loro comportamenti, adesso è la volta dei temi che possono aiutare gli studi a ‘fare la differenza’.

Verranno, perciò, presi in esami tre temi principali, con l’intento di rispondere ad alcune precise domande. Innanzitutto il Cloud Computing per cui si cercherà di comprendere quali sono le norme che oggi lo regolano il cloud computing, quali le accortezze da utilizzare con la sua adozione, come cambia l’organizzazione dello studio, quali modelli sono adatti a uno studio professionale, quali sono e quanto valgono i benefici economico-finanziari per uno studio che usa il cloud. Il secondo tema si riferisce a smart data e analytics: la nuova frontiera dei servizi digitali, che supera il concetto fisico del documento ma che si concentra sulla parte importante in esso contenuta: i dati. In particolare sarà oggetto d'analisi cosa significa per uno studio elaborare una strategia basata sugli smart data, quali strumenti occorrono, come individuare i dati smart, quali competenze e che benefici ci si può attendere. Infine c'è l'ambito delle competenze digitali, che punterà l'attenzione su quali competenze occorre sviluppare per gestire flussi di lavoro e l’organizzazione sempre più digitale e su quali sono le competenze utili a poter erogare servizi sempre più digital-based.

Il percorso sarà accompagnato dai sostenitori che da anni credono in questa iniziativa: i consigli nazionali, le loro fondazioni studi, il mondo associativo, i vendor di soluzioni tecnologiche e le aziende di servizi, i professionisti che, sempre più numerosi, ci seguono con interesse e forniscono il loro apporto di ‘vita vissuta’. Oltre ai due eventi finali, alcuni appuntamenti intermedi consentiranno di confrontarsi sui temi della ricerca, incontrare esperti e ascoltare la storia di studi che hanno qualcosa di distintivo da comunicare.

PMI italiane, ecco le "priorità digitali": Business Intelligence, eCommerce, alleanze con le startup by luca nogara

Sale soprattutto nelle medie imprese la convinzione che la Digital Transformation non è solo tecnologia ma richiede anche una nuova cultura di collaborazione e innovazione. I benefici più attesi sono aumenti di produttività e riduzioni di costi. Un'indagine di TAG Innovation School, Cisco Italia e Intesa Sanpaolo su oltre 500 realtà con fatturato fino a 50 milioni

fonte: digital4.biz - potete leggere l'articolo originale qui

Parlare di Digital Transformation solo in termini di tecnologie è sbagliato, e questa consapevolezza è diffusa anche tra le piccole e medie imprese (PMI) italiane che, oggetto di una recente indagine di TAG Innovation School - la scuola del digitale di Talent Garden - con Cisco Italia e Intesa Sanpaolo, hanno messo al primo posto la cultura aziendale collaborativa come fattore che determinerà la loro capacità innovativa (se non addirittura la loro forza competitiva e sopravvivenza).

L’indagine, che ha coinvolto oltre 500 realtà imprenditoriali italiane con fatturato fino a 50 milioni di euro, mostra un quadro generale di maturità delle PMI, ormai consapevoli delle sfide che devono affrontare ma ancora troppo spesso ferme al bivio in attesa di capire come procedere. Se, come accennato, il 65% sa di dover intervenire sulla cultura aziendale orientandola verso approcci più collaborativi e di open innovation, il 61% degli intervistati vede nell’implementazione di strategie digitali (intese come la capacità di aprire - in tutto o in parte - il proprio business a opportunità mai esplorate prima) la sfida primaria e più ardua da affrontare. L’introduzione delle tecnologie abilitanti sembra preoccupare meno gli imprenditori anche se ben il 35% la affronta ancora come una sfida critica.

Riduzione dei costi e aumento della produttività i più forti impatti percepiti

Le aziende interpellate da TAG stimano che l’innovazione e la trasformazione digitale impatterà maggiormente sulla riduzione dei costi e l’aumento della produttività. Entrando nel dettaglio dei risultati emersi, 4 aziende su 5 ritengono che l’impatto di soluzioni innovative incida in maniera molto importante o addirittura fondamentale sul taglio dei costi mentre un altro 74% è convinto di poter ottenere significativi aumenti di produttività derivanti, ad esempio, da automazione e servizi in cloud

 

Al di là dei numeri, ciò che appare evidente da questi dati è che tra le PMI italiane vi è oggi una discreta consapevolezza di come la digitalizzazione dei processi possa incidere direttamente su efficienza ed efficacia della gestione aziendale. In realtà, analizzando a fondo i dati, la riflessione risulta valida solamente per le medie imprese mentre sembra ancora in salita il percorso delle imprese più piccole. Il 76% degli amministratori delegati intervistati dimostra una forte sensibilità rispetto alla necessità di essere aggiornati sui temi dell’innovazione digitale ma tale caratteristica/esigenza si attenua parecchio quando a parlare sono gli imprenditori che guidano aziende con fatturato sotto i 10 milioni: un'altra conferma della minor propensione da parte delle imprese più piccole a comprendere ed esplorare le possibilità offerte dall’innovazione digitale.

Priorità: Business Intelligence, Big data, alleanze con le startup

Nonostante le difficoltà nel trovare la propria strada e nel capire come esattamente iniziare un percorso di trasformazione digitale, quasi la metà delle PMI intervistate (il 48%) dichiara di essere attualmente impegnata nell’analisi e studio di nuove strategie di business legate al digitale. Cosa concretamente significhino tali “intenzioni” lo spiegano i numeri: il 42% delle PMI intervistate sta implementando sistemi decisionali basati su analisi di business intelligence (studio della concorrenza, analisi di mercato, ecc.) mentre un altro 21% cerca di sfruttare in modo più efficace i Big Data. A conferma di tale impegno anche le intenzioni di investimento delle PMI nell’arco dei prossimi tre anni: le partnership con le startup e le strategie basate sui Big Data giocano il ruolo più importante dato che entrambi sono obiettivi condivisi dal 39% delle PMI intervistate.

Spicca anche l'interesse verso i canali di vendita digitali: il 37% dichiara che i prossimi investimenti andranno sull’eCommerce. Scarso invece l'orientamento verso temi che sono in realtà molto dibattuti tra le imprese più grandi: cybersecuritysharing economy e realtà aumentata/virtuale sono qui rilevanti solo per un quinto del campione analizzato, ovvero rispettivamente 21%, 20% e 19%.

Mobile app aziendali in stallo: si torna ai siti responsive. Gartner spiega perché by luca nogara

Più del 25% delle aziende globali non ha pubblicato mobile app negli ultimi 12 mesi. Tra i motivi spicca la lentezza nello sviluppo, che spinge i manager delle line of business ad "aggirare" il dipartimento IT. Intanto si sentono già gli effetti dell’era post-app: a governare saranno bot, assistenti virtuali e wearable device

fonte: digitl4.biz - potete leggere l'articolo originale qui

Un quarto delle grandi aziende mondiali non ha messo in cantiere mobile app nell'ultimo anno. E le organizzazioni che lo hanno fatto, hanno distribuito una media di otto applicazioni mobili, un dato che è rimasto invariato se confrontato con il 2016. Lo rivela un recente studio firmato da Adrian Leow, research director di Gartner. Guardando alla media delle aziende interpellate (163 gli intervistati tra professionisti IT e business leader di grandi aziende presenti in Usa, Regione Emea, America Latina e area Asia/Pacific), pare che attualmente ci siano poco più di 2 applicazioni ad azienda in fase di sviluppo e circa 6/7 quelle in pianificazione per i prossimi 12 mesi.

Ma non dovevamo entrare nell’era dell’app economy?

“Molti team IT avranno ritardi significativi nel completamento delle fasi di sviluppo delle applicazioni aziendali, aumentando di conseguenza il rischio che le line of business (LOB) aggirino l’IT stesso per ottenere risposte più rapide”, è il primo commento di Leow. “È ormai tempo che questi team ridefiniscano le loro priorità ed estendano il controllo e la pianificazione anche sulle app per dispositivi mobili altrimenti i rischi di erosione dei budget IT e la perdita di valore del dipartimento IT si innalzeranno ulteriormente”.

È finito il tempo delle mobile app native?

Analizzando in dettaglio i numeri relativi alle previsioni delle aziende, “è incoraggiante vedere una crescita significativa del numero di applicazioni mobili che sono ‘in lavorazione’ o previste per i prossimi mesi - commenta Leow - ma è sconfortate notare come la maggior parte della crescita la registreranno applicazioni web fruibili anche da dispositivi mobili (cioè applicazioni web responsive) e non mobile app native. Significa che molte aziende, frustrate dallo sviluppo di app mobili, si stanno rifocalizzando sui siti responsive per rispondere alle esigenze Mobile"

 

Ma c’è un’altra interessante chiave di lettura che emerge dall’indagine di Gartner: il 52% degli intervistati afferma di aver intrapreso percorsi di esplorazione o addirittura adozione di bot, chatbot e assistenti virtuali all’interno dei processi di sviluppo di mobile app, un quadro singolarmente molto innovativo considerando la natura piuttosto giovane di queste tecnologie.

È l’era post-app, ma c’è ancora qualche barriera da superare

Il fenomeno viene “classificato” dalla società di analisi americana come era delle post-appche non va in contrapposizione né sostituisce l’app economy ma caratterizza un nuovo periodo storico dove le app tradizionali - scaricabili da un app store e installate sui device mobili - rappresenteranno solo una parte delle funzionalità e dei servizi che potranno essere erogati agli utenti mobili (attraverso vari sistemi IoT, wearable device nonché bot e assistenti virtuali stessi).  

Le prospettive sembrano rosee ma ci sono ancora alcune barriere da superare, avverte Leow. Secondo lo scenario che emerge dall’indagine condotta alla fine del 2016, infatti, la mancanza di budget, le lacune nelle competenze degli sviluppatori e il poco tempo a disposizione rappresentano ancora barriere molto diffuse e impediscono che si “faccia il salto” verso uno sviluppo applicativo più efficace. Tra gli altri limiti rilevati, anche la difficoltà di trarre benefici economici diretti dal rilascio delle applicazioni mobile, criticità che però Leow attribuisce alla “mancanza di comprensione delle esigenze del cliente da parte dei team di sviluppo”.

L’analisi di Leow non si ammorbidisce nemmeno quando entra nel dettaglio della spesa IT e di come questa viene allocata per lo sviluppo applicativo: “nonostante gli intervistati dichiarino nel 68% dei casi di prevedere un aumento della spesa per le mobile app, la media delle proporzioni ci dice che solo l’11% del budget totale dedicato al software viene destinato alle applicazioni mobili”.

In questo caso, il vecchio detto “tra il dire e il fare c’è di mezzo il mare’ sembra più che mai appropriata.

I robot prenderanno il posto dei colletti bianchi? No, se si punterà sull'integrazione by luca nogara

A partire dal 2022 l'intelligenza artificiale metterà a rischio anche le posizioni con competenze più qualificate in ambito Legal, Finance e IT: CIO e funzione HR dovranno trovare il giusto equilibrio nel tracciare le regole della convivenza tra uomo e macchine, e le nuove strategie di assunzione. Il punto di Gartner

fonte: digital4.biz - potete leggere l'articolo originale qui

Anche i profili professionali di alto livello subiranno la concorrenza delle macchine. Almeno secondo Gartner, che nel report "Prepare for when AI turns skilled practices into utilities" prevede che a partire dal 2022 i professionisti più qualificati degli ambiti finanziario, legale e informatico saranno eguagliati se non superati nello svolgimento delle loro mansioni dall'intelligenza artificiale (AI), che si manifesterà in azienda attraverso smart machine e robot.

«AI e machine learning renderanno alcune delle attività svolte oggi da professionisti qualificati funzioni a basso costo», conferma Stephen Prentice, Vice President and Gartner Fellow, «e questo porterà molte industry a rivedere completamente modelli organizzativi e strategie di business, visto considerando che settori attualmente ad alto margine, sulla spinta di tecnologie che trasformano lavori complessi in semplici servizi informatici acquistabili a cottimo, si trasformeranno in vere e proprie utilities».

Uno degli ambiti più coinvolti, secondo Prentice, sarà quello legale. Oggi un avvocato deve affrontare un lungo percorso formativo per maturare le competenze e le conoscenze necessarie a svolgere la propria mansione. Lo stesso può dirsi di una macchina: attualmente i sistemi AI necessitano di tempo e investimenti per costruire il proprio know how e sviluppare determinate specializzazioni. La differenza con un essere umano è che una macchina, una volta addestrata, può replicare le proprie funzioni virtualmente all'infinito. Se un'azienda invece ha bisogno di più avvocati, deve assumerli, con tutto quel che ne consegue sul piano dei costi.

Anche il Finance subirà un importante scossone: attività come l'analisi per la concessione di prestiti e l'assicurazione dei crediti possono già essere automatizzate. Ma se da una parte l'AI ridimensionerà la forza lavoro, specialmente rispetto alla gestione dell'ordinaria amministrazione, dall'altra permetterà di dirottare le risorse fino a ora impegnate in attività ripetitive sullo sviluppo e sull'erogazione di servizi a maggior valore.

Questa trasformazione è inevitabile anche rispetto al comparto dell'IT, e in maniera trasversale i CIO devono preparare l'organizzazione a un drastico cambiamento rispetto allepriorità nei processi di assunzione. «L'AI è naturalmente più efficace nell'affrontare task ben definiti e con obiettivi chiari, mentre l'intervento umano continuerà a essere preponderante là dove i problemi sono di definizione più complessa», continua Prentice.

«Una cosa non esclude l'altra, macchina e uomo possono collaborare e non dimentichiamoci che quando cambiano le condizioni di base è sempre l'uomo che indirizza la macchina». Così Prentice raccomanda ai Chief Executive Officer di sfruttare i piani aziendali di medio termine per immaginare e pianificare insieme all'ufficio HR, un giusto equilibrio tra skill umane e capacità dell'AI. Troppa automazione rischia infatti di rendere l'impresa poco flessibile, ma porre i giusti limiti tra un ambito e l'altro si rivelerà utile anche per rassicurare i collaboratori rispetto a paventate invasioni di campo da parte dei robot.

I 9 trend dell’IT nei prossimi mesi, secondo Gartner: tra edge computing, cloud, e Io by luca nogara

Gartner ha riassunto quali saranno le principali tendenze IT del 2017. Anche se non si tratta di argomenti del tutto nuovi, sarà la loro evoluzione ad avere un impatto significativo sui team IT e sui carichi di lavoro dei data center. La governance sarà in mano a 5 professionisti chiave

fonte: digital4.biz - puoi leggere l'articolo originale qui 

Data center interconnessi, invisibili, containerizzati, capaci di orchestrare l'evoluzione di una Internet of Things pervasiva. La governance sarà in mano a nuove figure chiave, sempre più specializzate nei vari cluster di pertinenza che caratterizzano lo sviluppo dei data center di domani, incentrati su chiavi di servizio sempre più sofisticate e performanti.

Quali sono le  tendenze che continueranno a definire il ruolo dei professionisti IT e le competenze che questi ultimi dovranno avere per gestire i data center del prossimo futuro?

Se ne è parlato ad Orlando lo scorso mese, in occasione dell'IT Operations Strategies and Solutions Summit di Gartner. Gli esperti hanno analizzato i top trend del 2017 in ambito IT per far luce su quali saranno gli elementi che avranno un impatto maggiore sugli operatori del settore.

1) I data center tradizionali scompariranno

I tradizionali data center on premise stanno diminuendo di giorno in giorno. Il motivo? Le leggi di mercato. Per le aziende oggi esistono delle alternative più efficienti ed economicamente convenienti. Gli analisti di Gartner hanno rilevato che oggi circa l'80% dei carichi di lavoro aziendali si esegue on premise e il restante 20% si trova sul cloud o su impianti esternalizzati, mentre entro il 2021 la percentuale dei workload eseguiti localmente scenderà a circa il 20-25%, a tutto vantaggio delle soluzioni cloud e off-premise. Il concetto di data center as a service (DCaaS) ha guadagnato terreno poiché le imprese hanno spostato il proprio focus dall’infrastruttura alle applicazioni. Ma la scelta di cloud, outsourcing, SaaS, PaaS, risorse umane as a service e DCaaS non sono proposte poi così estreme. Gli esperti ritengono che un solo delivery model probabilmente non supporterà tutte le esigenze di un'organizzazione e che gli operatori, probabilmente, dovranno utilizzare diversi modelli per raggiungere diversi obiettivi.

2) I data center saranno interconnessi

La connettività è un elemento caratteristico della moderna tecnologia dei data center, ma la crescita del cloud e di altri servizi off-premise la metterà ancora più al centro dei processi operativi, utilizzando i collegamenti in fibra per la connettività ad alta velocità e di lunga distanza.

Secondo gli esperti, le interconnessioni future fonderanno data center e risorse in modo molto simile alle reti peer-to-peer. Questo metterà le prestazioni e la resilienza della connettività dei provider di cloud e software-as-a-service alla pari con le risorse  di calcolo e archiviazione  private on-premises, oltre a offrire flessibilità e agilità su scala più vasta.

3) I container cambieranno le applicazioni

I container continuano a essere una delle principali tendenze dell’IT aziendale. Questo perché consentono nuove forme di sviluppo e implementazione delle applicazioni che non sarebbero possibili persino con centri dati virtualizzati.

Mentre questo scenario rappresenta un terreno fertile per gli sviluppatori, ai professionisti IT richiede di implementare e supportare i container, oltre ad affrontare nuovi problemi di gestione relativi al loro utilizzo, come governance, licenza software e così via. Gli esperti evidenziano che per creare, monitorare, gestire e distruggere i container gli operatori devono garantire un'infrastruttura solida, organizzando e monitorando tutte le risorse utilizzate per farli funzionare.

 

4) L’IT, se saprà innovarsi, guiderà il business

I leader aziendali comprendono il ruolo svolto dai servizi IT in azienda e la loro importanza per il successo del business, ma gli analisti sottolineano come l’era dell’ IT in-house che dà ordini su applicazioni, servizi e tecnologie utilizzate dalle unità di business sia terminata. La rapida crescita del cloud pubblico, del SaaS e di altri servizi concorrenziali ha posto sulla difensiva i modelli IT  tradizionali: non c'è più bisogno di aspettare che l’IT possa valutare, raccomandare o distribuire servizi e carichi di lavoro quando esistono opzioni efficaci che possono essere impegnate più velocemente e con meno problemi nelle line of business.

Gartner fa notare come oltre il 20% della spesa IT aziendale, attualmente, sia  fuori dal controllo IT e come ciò rappresenti una sfida per l’IT che deve sapersi innovare e ripensare il suo ruolo di abilitatore di servizi e broker.

5) La stranded capacity dovrà essere identificata e ridotta

Il concetto di stranded capacity non è certo una novità, ma la velocità e l’agilità dai moderni modelli di calcolo rendono i problemi di sprawl molto più pronunciati e potenzialmente costosi. Gli analisti di Gartner hanno riferito che il 22% delle istanze di calcolo oggi sono invisibili, ovvero sono istanze che eseguono e consumano risorse, ma non forniscono alcun valore all'attività. Il 40% dei rack non è adeguatamente approvvigionato e i server eseguono solo il 32%. Tutto questo si traduce in sprechi di risorse, ovvero in costi inutili per l’organizzazione.

6) Internet of Things in emersione

L'internet delle cose è diventato rapidamente uno dei trend principali in ambito IT, grazie alla sua capacità di sfruttare enormi quantità di dati in opportunità mai viste prima sia per le vendite, il controllo e l'analisi dei processi. I dispositivi IoT possono velocizzare i tempi di vendita con funzionalità predefinite, elevata scalabilità, supporto per i fornitori e un ecosistema di fornitori abbastanza completo. Nonostante ciò, gli esperti notano che i dispositivi reali e gli stack di software utilizzati nelle distribuzioni IoT sono ancora in fase di definizione e che il settore soffre ancora della mancanza di uno standard.

7) I dispositivi remoti devono essere gestiti

L’Internet of Things richiede che i team IT gestiscano anche  i dispositivi remoti - le cose dell’internet, appunto!  - e ciò rappresenta una sfida logistica non da poco: significa occuparsi di installare, configurare, gestire, sostituire o ritirare ogni dispositivo remoto presente nell'ambiente.

8) Micro ed edge computing meritano attenzione

Invece di investire in una larghezza di banda di rete più costosa, molte organizzazioni impiegano risorse di calcolo su piccola scala e risorse di archiviazione più vicine alla posizione del lavoro effettivo: questa strategia è conosciuta come edge computing. Tuttavia, tali sforzi di elaborazione remota o pongono di fronte ai responsabili IT altri tipi di problemi, come la resilienza e la manutenzione. Le aziende devono pertanto considerare con attenzione i requisiti e le vulnerabilità di una piattaforma di calcolo remoto.

9) Guardare avanti verso i nuovi ruoli dell’IT: le 5 figure chiave della governance

Queste tendenze e la mutevole relazione tra business e IT hanno generato nuovi ruoli nel settore.

  1. Secondo gli esperti, per esempio, l’architetto dell’Internet of Things sarà colui il quale selezionerà e implementerà i componenti di un sistema IoT per garantire una corretta gestione e integrazione con altre infrastrutture e software di data center.
  2. Il cloud sprawl specialist, invece, monitorerà l'utilizzo delle risorse nel cloud pubblico e privato e applicherà politiche rivolte a ridurre al minimo gli sprechi. Lo strategy architect sarà la figura che esaminerà le infrastrutture esistenti e fornirà indicazioni per ottimizzarle, individuando le tecnologie necessarie per conseguire gli obiettivi aziendali.
  3. Uno specialista di capacità e risorse, invece, si occuperà di analizzare le risorse per il business con il fine di individuare, ove possibile, alternative a costi più accessibili.
  4. Gli esperti ritengono che alla figura del broker and provider specialist, invece, verrà demandato il compito di identificare i migliori servizi di business tra quelli offerti dalla gran quantità di potenziali fornitori per guidare l'azienda verso l’impiego di servizi convenienti capaci di integrarsi con altre piattaforme di business.
  5. Infine, un esperto di performance ed end-to-end si occuperà di application performance management per garantire che i carichi di lavoro operino con la massima efficienza e la soddisfazione degli utenti.

Data center in Italia? L'83% è in house, ma risorse e infrastrutture non sono più adeguate al business by luca nogara

Data center aziendali indispensabili ma anche concettualmente obsoleti. Lo staff IT occupa più tempo a gestire i contratti con i fornitori che a occuparsi dello sviluppo e della programmazione. Il cloud piace e interessa, ma c'è ancora molta paura per la business continuity. Tutti i numeri in una survey firmata NetworkDigital360

fonte: digital4.biz - puoi leggere l'articolo originale qui

Data center in Italia come cardine del business ma anche come asset sempre più critico. I dati parlano chiaro: a fronte di nuovi modelli tecnologici incentrati sul cloud e sulle logiche dell'As a Service e del Pay Per use, 8 aziende su 10 (83%) nel nostro Paese hanno ancora un data center in house, l'85% delle imprese ha bisogno di far evolvere l'infrastruttura IT in una chiave di maggiore razionalizzazione e agilità, quasi 7 aziende su dieci (69%) hanno uno staff sottodimensionato rispetto alle esigenze e ai compiti associati alla governance. 

lI vero problema dei data center in Italia, infatti, sono infrastrutture aziendali che non hanno seguito un modello di sviluppo programmato e oggi sono il risultato di una crescita molto più addizionale che strategica. Questo è il motivo per cui tutte le aziende confermano di avere necessità di cambiare, in un'ottica di forte rinnovamento delle macchine ma anche delle modalità di gestione dei servizi.

A rivelarlo una survey condotta da NetworkDigital360, in collaborazione con Dimension Data, su un campione di 280 aziende italiane di medie dimensioni (superiori a 250 dipendenti), operanti in vari settori industriali dal manufacturing (65%) al finance (10%), dal retail  (20%) al chimico-farmaceutico (4%).

Data center in Italia: voglia di evoluzione per quasi 9 aziende su 10

Gli analisti hanno sottolineato come per quasi nove aziende su 10 (85%) il motivo principale che sta spingendo la direzione a revisionare le infrastrutture ICT esistenti sia la volontà di razionalizzare un installato eterogeneo, costituito da sistemi legacy e nuove soluzioni che progressivamente sono entrate in azienda per rispondere rapidamente alla domanda delle diverse LOB che richiedono maggiore agilità e una velocità di servizio crescente. Il resto delle risposte fotografa segnali di evoluzione e di cambiamento in relazione allo sviluppo del business. La reingegnerizzazione dei data center italiani, infatti, è funzionale alla crescita dell'organizzazione interna (22%), ad acquisizioni/merge e dismissioni di rami d'impresa (15%), all'apertura di nuove filiali (12%), all'apertura di nuove business unit (10%) e all'internazionalizzazione legata a delocalizzazione o apertura di sedi estere (6%). Solo l'11% delle imprese dichiara di aver bisogno di rinovare le proprie infrastrutture per adeguarle alla compliance normativa.

 

Per più di 8 aziende su 10 il data center non è un servizio ma una proprietà

La volontà di sviluppare i servizi richiesti nel più rapido tempo possibile per garantire il time to market aziendale oggi spinge le imprese a rivedere la propria regia informatica. L’obbiettivo? Presidiare la governance integrando applicazioni e sistemi secondo criteri di centralizzazione e omogeneizzazione più efficaci e con economie più lungimiranti e sostenibili. La ricerca ha messo in luce ulteriori aspetti che aiutano a capire quali sono i limiti di un approccio più evoluto: l’83% delle imprese italiane considera ancora il data center come un bene, ovvero un asset rigorosamente proprietario. Meno di 1 azienda su 10 (8%) ha terziarizzato la complessità del data center affidandola a un provider specializzato e meno di 1 azienda su 10 (9%)  ha spostato il proprio approccio da un concetto di possesso a un concetto di puro servizio affidando a un cloud provider la gestione in toto delle proprie infrastrutture ICT. 

 

Grande interesse per il cloud

Alla domanda “Valutando la possibilità di una migrazione delle vostre infrastrutture in cloud, quali delle seguenti opzioni terreste più in considerazione?” gli analisti hanno registrato come il 35% delle aziende sia più propensa a scegliere un modello ibrido, il 33% un modello di cloud privato e il 20% un modello di cloud pubblico. 8 aziende su 10 scelgono la virtualizzazione mentre solo due aziende su 10 affermano di non essere minimamente interessate a spostare sulla nuvola le proprie infrastrutture, mentre un’azienda su dieci confessa di non aver ancora preso posizione. In realtà l'indagine evidenzia come ci siano ancora moltissimi freni rispetto all'uso più intensivo e strategico della nuvola. 

 

L’orientamento delle risposte suggerisce che le imprese italiane nutrono ancora diverse riserve nell’affidare la gestione delle proprie infrastrutture completamente all’esterno del tradizionale aziendale. Le risposte, in vario modo, sono quasi tutte legate al timore di interrompere la business continuity. Al primo posto delle criticità per quasi 6 aziende su 10 c’è la paura di intaccare la sicurezza aziendale (59%) seguita, praticamente a pari merito (58%), dalla scarsa fiducia rispetto alle garanzie di una connettività tale da garantire la business continuity erogata in cloud. La terza criticità, in ordine di spiegazione, è comunque correlata allo stesso tema: il timore di un’interruzione rispetto alla continuità operativa, indicata da quasi 5 aziende su 10 (49%). Per il 36% delle imprese la migrazione sulla nuvola delle proprie infrastrutture è frenata da problemi associati alla compliance, a pari merito con motivazioni legate alla paura di vedere aumentare i costi dell’As a Service. Per due aziende su 10 (20%), invece, il cloud è inaccessibile perché le infrastrutture sono troppo obsolete per consentire una gestione on demand.

Staff IT sempre più ...staffati. La risposta è nell'outsourcing

Al di là delle criticità legate alla gestione di server, storage e infrastrutture di rete fisiche e virtuali la survey ha messo in luce una grossa una grossa crisi interna allo staff ICT: quasi 7 aziende su dieci (69%) dichiara di essere sottodimensionato ma il 31% ha ovviato al problema grazie a risorse in outosurcing. La governance è ripartita tra chi si occupa di demand management (73%) che raccoglie informazioni dal business e le traduce in requisiti IT, una parte del personale (70%) che a causa della sempre più rapida obsoloscenza tecnologica dell’hardware e del software si occupa di gestire contratti diversificati con una molteplicità di fornitori per upgrade ed evolutive, personale prettamente tecnico e dedito allo sviluppo e alla programmazione (67%). A fronte di un 45% di aziende che non pensa di intervenire su un potenziamento dello staff IT, più di 3 aziende su 10 (33%) afferma che ricorrerà all'outsourcing mentre 1 azienda su 10 sta formando il proprio personale e 1 azienda su 10 provvederà al gap attraverso nuove assunzioni.

 

 

Governance delle infrastrutture nell'era omnicanale e gestione del rischio by luca nogara

Nella gestione delle prestazioni di rete dirigere l'orchestra tecnologica costituita da una molteplicità di prodotti fissi e mobili e una gamma infinita di applicazioni sembra diventata una missione impossibile. Secondo Accenture, il 70% delle aziende conferma come la cybersecurity impatti sulla governance imponendo nuovi modelli di gestione. Quali i trend e quali linee guida seguire?

fonte: digital4.biz - trovi l'articolo originale qui

Governance delle infrastrutture nell'era omnicanale significa saper lavorare sulle architetture di rete con una visione estremamente allargata e dinamica rispetto alle soluzioni da innestare e presidiare. Garantire la massima continuità operativa rimane un fondamentale. Come riuscirci è tutto un altro discorso.

Il tema è duplice. Da un lato bisogna continuare a gestire i processi, interpretando i protocolli associati a una molteplicità di livelli per agganciare e far funzionare soluzioni, aprendo nuovi canali di comunicazione finalizzati ad abilitare tutti i nuovi servizi richiesti dalle LoB che, ormai, hanno capito che non c'è business senza una strategia omnicanale. Dall'altro bisogna continuare a garantire la business continuity che, con l'evolversi delle tecnologie di ultima generazione, ormai tende a rientrare in quel macrocapitolo chiamato Cybersecurity. Secondo una ricerca condotta da Accenture, ad esempio, 7 aziende su 10 confermano come la cybersecurity impatti sulla governance imponendo nuovi modelli di gestione.

Il problema è collettivo: gli analisti hanno infatti evidenziato come, nel mondo, le organizzazioni nel 2015 abbiano  speso 84 miliardi di dollari sulla sicurezza e da qui ai prossimi quattro anni la cifra lieviterà a quota 125 miliardi. Sono un sacco di soldi, è vero, ma i costi che le aziende dovranno sostenere entro il 2030 in seguito ai cyberattacchi  sono stimati da Accenture nell'ordine dei 90 miliardi di dollari.

Governance delle infrastrutture nell'era omnicanale, distribuita anzi troppo distribuita

Che si tratti di abilitare un nuovo server, avviare un servizio di streaming, includere tra gli accessi alla rete i dispositivi mobili non solo dei dipendenti ma anche degli ospiti o implementare qualsiasi altro touch point che la Internet of Things ha reso più smart (dal sistema di videoconferenza all'e-board, dal chiosco interattivo in reception al tavolo intelligente in show-room), la governance deve cosiderare sempre e comunque che la connettività alla rete porta con se nuovi margini di rischio che vanno analizzati, capiti, prioritizzati e gestiti.

Dall'azienda estesa all'azienda distribuita tra le decine di utenti che lavorano da cellulare, da tablet, da pc portatile ma anche da tutta una serie di dispositivi associati a una Collaboration supportata da tutte le derive tecnologiche della Unifiend Communication significa prevedere una quantità di software di riferimento inenarrabile. Il tutto considerando come il cloud abbia cambiato ulteriormente gli equilibri, spostando una parte delle infrastrutture nell'etereo universo dell'As a Service.

Il problema, spesso, è che nelle aziende le figure di riferimento per gestire i servizi sono diverse. Il CIO è spesso un senior cablato nella gestione dei fornitori e del suo staff IT mentre il network manager, che conosce la rete come le sue tasche difficilmente si occupa di Security, dal momento che questa è stata associata anche alla gestione della proprietà dei dati, della proprietà intellettuale, della Privacy, della Compliance e di tutta un'altra serie di task che sono stati spostati su altre figure professionali. Il risultato è che ognuno fa il suo ma le architetture di rete continuano a crescere in maniera discontinua e pericolosa. Serve una centralizzazione delle attività e serve un sistema di supervisione condiviso tra i manager che aiuti l'azienda a capire in fretta cosa sta succedendo e perchè, al di là di tutti gli strumenti di controllo puntuali di cui è stata costellata l'infrastruttura.

 

Per gestire prodotti multipli e tutto il profluvio di applicazioni oggi le aziende inziano a utilizzare nuove piattaforme che, attraverso un unico cruscotto centralizzato, consentono di presidiare le reti e di rilasciare servizi in tempo reale. L'obbiettivo? Gestire le infrastrutture a 360 gradi. 

Ieri architetture di rete. Oggi ecosistemi estesi

«Le architetture dei data center - ha spiegato Stefano Mainetti, Responsabile Scientifico Osservatorio Cloud & ICT As a Service della School of Management del Politecnico di Milano - si stanno muovendo da soluzioni on-premise basate su server fisici (o blade server) in cui servivano skills specifici (tipicamente skills sistemistici) verso soluzioni più semplici da gestire in cui l’hardware sottostante è sempre più nascosto e gestito esternamente. Questo aumenta da un lato le performance e l’affidabilità delle infrastrutture (si pensi alle capacità di investimento che hanno i provider nei confronti dei loro data center) e dall’altro il livello di scalabilità (che non si poteva ottenere prima con le soluzioni on-premise basate su sistemi fisici). Il punto di arrivo è il software defined data center che, attraverso meccanismi di integrazione, può dare vita ad architetture ibride capaci di accedere dinamicamente a ulteriori risorse computazionali, come il cloud pubblico. Operativamente, si parla quindi di un modello architetturale basato sulla condivisione di risorse, che supera il concetto tradizionale di silos e si muove verso un data center programmabile come un software. Alle aziende, dunque, sono richieste nuove vision e una nuova governance». 

In ambito industriale, soprattutto, i mondi IT e OT convergeranno su una soluzione interclouding e la differenza la farà la flessibilità e interoperabilità di quanto disponibile, da cui la strategicità dei partner tecnologici con i quali si andrà a collaborare su tutti i livelli dei processi aziendali. Questo comporterà una revisione profonda a livello di organizzazione, ruoli e responsabilità rispetto alle figure IT e OT oggi presenti in azienda. 

Le indicazioni degli esperti? Abbandonare il concetto di architettura e sposare quello di ecosistema esteso, che cambia e cresce costantemente. Solo in questo modo le organizzazioni potranno essere in grado di adattarsi e riallinearsi per proteggere la propria continuità operativa avendo ben chiare le priorità aziendali secondo una nuova logica evolutiva.

Secondo Accenture, con un'economia digitale in rapida espansione, molte organizzazioni dovrebbero valutare più seriamente le falle che potrebbero crearsi nelle proprie infrastrutture di rete, soprattutto considerando come ormai la sicurezza sia partizionata tra più partner a cui è stata terziarizzata la complessità. 

Un suggerimento importante degli analisti alle aziende è di non dare più per assodato quanto si è costruito: ogni giorno arrivano nuove istanze e nuove tecnologie, nuove minacce e nuove soluzioni da analizzare, portare in azienda, interfacciare e integrare, controllare, aggiornare, proteggere, insomma gestire. La Governance 4.0 va rifondata su un concetto di massima trasparenza informatica, non su un addizione di strumenti diversi: è ora di razionalizzare e passare a piattaforme di controllo capaci di gestire in modalità convergente l'eterogeneità di sistemi e applicazioni in modo dinamico e cybersicuro.

Polimi, l’eCommerce B2B in Italia vale 310 miliardi: «Il 14% di tutte le interazioni business è digitale» by luca nogara

Gli scambi di informazioni e le transazioni tra imprese via web o EDI crescono del 19% in un anno. Più di metà delle grandi aziende, e una PMI su 4, usano soluzioni eProcurement, eSupply Chain Execution o Collaboration. Censiti 430 Portali B2B ed Extranet, 250 Portali eProcurement, e 150 milioni di documenti scambiati via EDI. Tutti i dati del report 2017 dell'Osservatorio Fatturazione Elettronica ed eCommerce B2B del Politecnico di Milano

fonte: digital4.biz - puoi leggere l'articolo originale qui 

310 miliardi di euro. Questo il valore raggiunto in Italia nel 2016 dall’eCommerce B2b, la gestione delle transazioni tra imprese tramite soluzioni digitali: un valore cresciuto del 19% in un anno, e che rappresenta il 14% del totale delle transazioni tra le imprese (B2B) nel nostro Paese, che nel 2016 è stato di 2200 miliardi di euro. Questi i principali dati dell’edizione 2017 dell’Osservatorio Fatturazione Elettronica ed eCommerce B2B del Politecnico di Milano, presentata stamattina.

«Il 14% del totale degli scambi B2B è un valore significativo, ma ancora marginale - ha detto Alessandro Perego, Direttore Scientifico Osservatori Digital Innovation e Responsabile Scientifico dell'Osservatorio Fatturazione Elettronica & eCommerce B2B- Sono ormai 15 anni che studiamo l’uso del digitale per gestire le transazioni e la collaborazione B2B tra le imprese: è uno dei temi meno “sexy” della digital transformation italiana, molto meno dell’Intelligenza Artificiale per esempio, eppure ne costituisce le fondamenta. È una battaglia culturale, e vogliamo contribuire a far capire che i benefici sono enormi, e vanno ben oltre quelli della dematerializzazione e della fatturazione elettronica: per questo abbiamo ampliato il nome dell’Osservatorio per comprendere tutto l’eCommerce B2B».

Automotive e Farmaceutico le filiere più "digitalizzate"

La metà del valore dell’eCommerce B2B italiano, spiega il report, si concentra nel rapporto tra produttori e rivenditori, mentre il 30% scaturisce da scambi tra produttori e fornitori, e il restante 20% dai rapporti grossisti-rivenditori e produttori-grossisti. 120mila imprese italianenel 2016 hanno usato soluzioni di eCommerce B2B, il 20% in più dell’anno precedente. Tra esse c’è oltre la metà delle grandi imprese italiane, e più di una PMI su 4.

Distinguendo per comparti merceologici, Automotive (80 miliardi di euro), Largo Consumo (65 miliardi) e Farmaceutico (18 miliardi) sono i primi 3 settori in Italia per volume di scambi di eCommerce B2B. L’Automotive si conferma al primo posto anche per l’incidenza dell’eCommerce rispetto al totale del transato B2B (ben il 70%), quasi eguagliato però dal Farmaceutico (67%).

L’Osservatorio classifica le soluzioni eCommerce B2B in tre categorie: eProcurement (ricerca, qualificazione e certificazione fornitori, negoziazione su strumenti digitali, eCatalog), eSupply Chain Execution (fasi logistiche, commerciali, amministrative e contabili), eSupply Chain Collaboration (pianificazione, sviluppo nuovi prodotti, gestione della qualità).

«Circa il 75% del valore dell'eCommerce B2b scaturisce dall’uso di applicazioni di eSupply Chain Execution, perché le imprese negli ultimi anni si sono concentrate soprattutto sul recupero di efficienza digitalizzando il Ciclo Order-to-Pay – ha spiegato Irene Facchinetti, Direttore dell'Osservatorio -. Le soluzioni di eProcurement ed eSupply Chain Collaboration invece sono usate per lo più da poche grandi imprese e incidono molto meno sui volumi complessivi scambiati».

 

Per quanto riguarda l’eSupply Chain Execution, l’Osservatorio distingue tra connessioni EDI e portali B2B/Extranet. Nel primo caso (reti EDI) oltre 150 milioni di documenti digitali (+36% rispetto al 2015) - soprattutto fatture, ordini, conferme di spedizione - sono stati scambiati nel 2016 tra oltre 12.000 imprese (+9%), il 96% delle quali appartiene a soli 5 settori: Automotive, Elettrodomestici/Elettronica di Consumo, Farmaceutico, Largo Consumo, Materiale Elettrico. Quanto a Extranet e Portali B2b, sono circa 430, utilizzati principalmente dalle grandi imprese per interagire con ecosistemi frammentati o piccole imprese.

C’è poi anche il Sistema di Interscambio (SdI) per interagire con la Pubblica Amministrazione (e non solo), già adottato al 31 dicembre 2016 da oltre 900.000 imprese, con cui l'anno scorso sono state scambiate oltre 30 milioni di Fatture Elettroniche nel Tracciato FatturaPA.

Passando all’Procurement, in Italia sono quasi 250 i grandi Portali che supportano sia i processi di selezione e qualifica dei fornitori sia le fasi di negoziazione e acquisto. Nel 60% dei casi i Portali sono cataloghi elettronici, prevalentemente per l’acquisto di beni e servizi indiretti (utensileria, articoli per ufficio, ecc.). Nel restante 40% dei casi gestiscono anche lo scambio di documenti del Ciclo dell’Ordine.

Quanto all’eSupply Chain Collaboration, l’adozione di queste soluzioni resta limitata. Fanno eccezione pochi grandi attori che hanno deciso di scambiare con clienti e/o fornitori informazioni “strategiche” (dati di sell-out, livelli di stock, piani di produzione, previsioni di vendita) oltre a quelle “operative” (Ordini, Fatture). C'è interesse per le collaborazioni nei processi di Marketing e Comunicazione (30% delle imprese), meno nello sviluppo congiunto di nuovi prodotti (14%).

Infine oltre il 60% delle grandi imprese intervistate dall'Osservatorio indica tra le priorità di investimento per i prossimi tre anni progetti digitali a supporto del ciclo Order-to-Pay, e dei processi interni (Gestione Elettronica Documentale, Conservazione Digitale). Tre imprese su 4 dichiarano tra le priorità almeno un progetto collaborativo (Marketing o Monitoraggio della Supply Chain). Prioritarie solo per un’impresa su 5, invece, le soluzioni di eProcurement.

«Tirando le somme, il valore dell'eCommerce B2b resta ancora marginale in termini di incidenza sul transato delle imprese in Italia, ma è in sensibile crescita – ha sottolineato Facchinetti -. Rispetto allo scorso anno, oltre a un incremento del dato di circa il 20%, abbiamo in generale riscontrato una maggior sensibilità delle imprese per le opportunità offerte dall’eCommerce B2b, inteso come ripensamento in chiave digitale del modo in cui un’organizzazione funziona e si relaziona con i propri clienti e fornitori. Ma deve diventare una priorità per tutte le imprese e per il Paese».

 

Advertising, è finito il tempo dell’integralismo digitale by luca nogara

Molte previsioni sul Marketing di pochi anni fa non si sono realizzate: la pubblicità televisiva non è affatto morta, e ci si è resi conto che lavorare in modo iper personalizzato non sempre ripaga. Oggi tradizione e innovazione convivono e per essere davvero distintivi serve focalizzarsi su creatività, capacità di raccolta e utilizzo dei dati, e assetti organizzativi coerenti. Il punto di Giuliano Noci, Ordinario di Marketing al Politecnico di Milano

fonte : digital4.biz. l'articolo originale del professor  Giuliano Noci

il Professor Giuliano Noci scrive:

Da più di 15 anni ormai mi occupo di analizzare e studiare i cambiamenti indotti dal cosiddetto mondo digitale nel mercato della pubblicità.
Lungo tutto questo periodo abbiamo registrato asserti e proclami, più o meno conclusivi, frutto di presunte certezze del momento; ad esempio, credo sia capitato a tutti voi sentire da autorevoli esponenti della comunità del marketing o di leggere che la pubblicità televisiva avrebbe subito un fenomeno di rilevante implosione, oppure che finalmente si sarebbe potuto fare comunicazione assolutamente personalizzata - diretta e mirata al singolo individuo - o ancora che il digitale sarebbe stato alla portata di tutte le imprese e avrebbe aperto opportunità di business a molteplici nuovi soggetti/ editori: la cosiddetta democrazia diretta della rete.
La progressiva diffusione di Internet, infatti, l’affermarsi progressivo dei device digitali - smartphone in primis - e gli stessi cambiamenti delle esperienze mediali degli individui – sintetizzabili nelle cosiddette 4M (Mobile, Multichannel, Multitasking, Multi-screen) - non hanno fin qui, nei fatti, confermato quelle certezze che sembravano dar corpo alle consapevolezze di cui sopra.

La TV non è morta: non solo perché si è evoluta profondamente (da mezzo di trasmissione lineare a oggetto in grado ormai di lavorare sia in logica push che pull sul fronte dei contenuti nonché della personalizzazione della proposta di contenuti) ma anche perché rappresenta ancora oggi lo strumento migliore e più efficace se si voglia lavorare in funzione di un obiettivo di riconoscibilità della marca.
Allo stesso modo, ci si è resi conto che lavorare in modo iper personalizzato (con segmenti di piccolissime dimensioni fino a collassare con il singolo individuo) non sempre ripaga; la fama aggiunge valore a un brand e per conquistarla è ancora oggi necessario/opportuno veicolare una comunicazione capace di catturare la pubblica immaginazione e, per questo motivo, è importante lavorare in una logica di broadcasting. Non si è d’altro canto rivelata tale proprio la cosiddetta democrazia della rete: ad oggi, Google e Facebook rappresentano un duopolio che raccoglie circa il 70% degli investimenti nella comunicazione digitale effettuati dalle imprese, determinando nei fatti condizioni di mercato non sempre trasparente. Questa considerazione ci porta a dire che fare comunicazione pubblicitaria oggi richiede la gestione integrata di tre dimensioni/leve: arte e scienza, su cui ci eravamo concentrati nel periodo pre-Internet e che abbiamo quasi dimenticato in questi anni; tecnologia - che invece negli ultimi anni sembrava essere obiettivo principe e assolutizzante qualsiasi scelta di comunicazione (il canale prima di tutto!).

Comunicare in logica display o contestuale: obiettivi diversi

Per meglio comprendere questa affermazione, dobbiamo cercare di mettere in fila alcuni aspetti che appaiono ora consolidati. Non mancano schermi e impressions attraverso i quali vengono veicolati messaggi pubblicitari. Vi è invece una carenza di connessioni di valore tra marca e individui e questa è la chiave - assolutamente tradizionale - attraverso la quale dobbiamo re-interpretare, in una prospettiva moderna, il modo di fare pubblicità oggi. In termini concreti, la possibilità di essere rilevanti richiede di costruire un’architettura di comunicazione integrata in cui la distinzione tra media tradizionali (TV) e canali digitali viene a cadere.
Non esiste infatti alcuna differenza sostanziale tra comunicazione veicolata tramite smart tv (ormai addressable) e banner veicolati via web/ mobile app; la vera differenza si ha tra l’attuazione di un programma di comunicazione in logica display e contestuale.

Nel primo caso, l’obiettivo è contribuire alla brand equity e quindi alla costruzione di legami emotivamente orientati con la customer base; un risultato che può essere ottenuto - tenendo conto delle caratterizzazioni specifiche dei differenti mezzi - attraverso la (smart) tv e/o i media digitali.
Questa prospettiva comunicativa va a lavorare, in altre parole, sui meccanismi di attenzione e memorizzazione selettiva che inducono un individuo a considerare una specifica marca nel consideration set in fase di acquisto.

Nel secondo caso, l’assunzione di fondo è che la comunicazione sia un’ambient activity, che deve tenere conto dello specifico contesto in cui l’individuo si trova, delle azioni che compie e della sua (geo) localizzazione nella prospettiva di ingaggiare l’individuo e quindi indurlo ad orientarsi verso l’acquisto (o spostarsi verso fasi più avanti del funnel di marketing).

 

Creatività, dati, organizzazione: la ricetta per fare Marketing oggi

In questa prospettiva, esiste nei fatti un unico spazio di comunicazione in cui convivono tradizione (comunicazione in logica push, diremmo pubblicità) e innovazione (comunicazione contestuale) e la cui progettazione richiede la contemporanea presenza di tre determinanti:

1) creatività: come abbiamo visto infatti il digitale non solo non toglie rilievo all’estro creativo tipico delle attività di comunicazione tradizionali ma per certi versi lo rafforza. La grande frammentazione comunicativa e la possibilità per gli individui di accedere ai contenuti in logica multiscreen e alla bisogna rendono ancora più rilevante la capacità di ingaggio da parte di una marca/impresa. Ovviamente molto diverso è sviluppare la creatività oggi: non esiste più una sola creatività dato un obiettivo/brief di comunicazione; sono spesso necessari sviluppi creativi differenti (ma consistenti rispetto all’obiettivo del piano) in ragione della necessità di tenere in conto delle specificità dei touchpoint e dei contesti di vita attraverso i quali si raggiunge la target audience deliberata;

2) capacità di raccolta e utilizzo dei dati: se è infatti vero che i dati non hanno potere di agire sull’immaginazione degli individui (e quindi di creare legami emotivi) è altrettanto importante considerare che giocano un’importanza fondamentale nel momento in cui si gioca la partita della comunicazione come ambient activity. La rilevanza dei dati è, in particolare, diretta conseguenza della necessità di acquisire rilevanza rispetto alla specifica contingenza in cui si trova l’individuo; una rilevanza che può essere conquistata solo conoscendo comportamenti di acquisto, interessi e decisioni di un individuo e, in questo senso, è il frutto di una significativa capacità di integrazione di silos informativi (differenti componenti del data warehouse aziendale, social network) da parte dell’impresa.

3) assetti organizzativi coerenti con i requisiti di una piattaforma comunicativa efficace. A questo proposito si guardi agli elementi chiave della progettazione organizzativa in ambito marketing. Occorre, in primis, essere consapevoli del fatto che non ha più alcun senso discriminare nell’organigramma aziendale tra unità di comunicazione tradizionale e quella digitale proprio in virtù dell’unicità percepita dal mercato con riferimento allo spazio di interazione tra individuo e impresa/marca. Appare sempre meno sostenibile la tendenza verso la frammentazione dei meccanismi di accesso ai servizi di comunicazione: all’aumentare del numero di agenzie/soggetti con cui si interagisce per la progettazione/implementazione di un piano di comunicazione, cresce il rischio di veicolare al mercato messaggi/comunicazioni incoerenti.

È infine rilevante - e scontato alla luce di quanto sopra evidenziato - che si innestino nell’organizzazione competenze di data intelligence.

Un posizionamento distintivo non può prescindere dal contesto

Abbiamo allora sbagliato tutto in questi quindici anni? No; abbiamo però vissuto lo sconquasso provocato da Internet con un eccesso di integralismo digitale. Ci siamo in parte dimenticati che la possibilità per un’impresa di creare valore economico è ancora frequentemente connessa con la sua capacità di affermare un posizionamento distintivo sul mercato (ce lo insegna Apple) e, in ragione di questo obiettivo, la marca deve ancora oggi diventare elemento/humus del contesto culturale in cui gli individui sono immersi.

Automazione dei processi d'acquisto, i consigli di Gartner per affrontare il cambiamento by luca nogara

Con la diffusione delle applicazioni Cloud e dei nuovi strumenti di machine learning, i prossimi tre anni saranno decisivi per l'eProcurement. Per arrivare preparate le aziende dovranno prima organizzare le informazioni e scegliere le giuste soluzioni con vendor e supplier

fonte: digital4.biz . potete leggere l'articolo originale qui 

Sono diversi i trend tecnologici che stanno attraversando, in maniera più o meno evidente, il mondo del Procurement. Secondo Gartner, da qui al 2020 assisteremo a una rivoluzione che ridefinirà molte delle abitudini consolidate e dei processi che caratterizzano oggi le attività di acquisto. Si parla naturalmente di e-invoicing, e-sourcing e supplier information management, che rappresentano alcuni degli strumenti già ampiamente diffusi, ma anche di approcci strategici guidati dall'introduzione di sistemi basati su Cloud e Artificial Intelligence.

Entro il prossimo triennio, prevede Gartner, più del 70% degli investimenti tecnologici su Procurement e processi di approvvigionamento sarà dedicato a soluzioni distribuite tramite la Nuvola, che pesa già per il 90% rispetto a tutte le nuove implementazioni Procure-to-Pay (P2P) nel settore privato come in quello pubblico. Alla ricerca di maggiore semplificazione, già a partire dal 2019 i vendor smetteranno di fornire portali orizzontali pre-confezionati capaci di supportare ciascuna delle interazioni coi partner della supply chain, in favore di una maggiore flessibilità delle applicazioni. Mentre dall'anno prossimo le piattaforme di P2P che tengono conto dei prezzi correnti riusciranno a garantire due volte i risparmi di quelle che non hanno questa capacità. Il futuro però non è tutto rose e fiori: secondo la società di consulenza, la modesta adozione di soluzioni all'avanguardia che ha contraddistinto il mondo del Procurement negli ultimi anni limiterà la penetrazione delle tecnologie smart (basate su machine learning e algoritmi ad hoc) al 10% del mercato potenziale.

 

Recuperare terreno si può, a patto di sposare una strategia “Cloud First”, che permette di accelerare l'intera organizzazione sul piano della digital transformation, allargando la vista sulle soluzioni disponibili sul mercato e migliorandone per questo l'accesso. Al tempo stesso è necessario valutare approfonditamente l'apporto che gli strumenti analitici (anche i più avanzati, come il già citato machine learning) possono fornire rispetto all'automazione e all'ottimizzazione dei processi, specialmente ora che il passaggio verso il paperless, secondo Gartner, ha superato il punto di non ritorno, integrando anche supporti tradizionalmente elettronici ma non strutturati, come per esempio le mail.

Prima di investire in nuove tecnologie, però, Gartner consiglia di consultare non solo i vendor, ma anche i fornitori chiave - oltre che una rappresentanza di supplier minori - per valutare insieme quale percorso di digitalizzazione può essere intrapreso e integrato più facilmente a tutto vantaggio del ROI dei soggetti coinvolti. Passo fondamentale, nel momento in cui si coinvolgono i partner per le implementazioni di soluzioni predittive avanzate è classificare e ordinare le informazioni e le serie storiche che saranno date in pasto ai nuovi sistemi. Allo stesso modo, nel momento in cui intendono potenziare il Contract Lifecycle Management (CLM) in questo senso, le aziende devono conoscere le basi per permettere agli applicativi P2P e ai virtual assistant, costruiti su tecnologie NLP (natural-language processing) di accedere ai file. Anche se dematerializzati, infatti, nel momento in cui i contratti si trovano in silos separati, i sistemi non possono accedervi per catturare, estrarre e processare i dati utili a costruire previsioni e insight. E tutto questo senza considerare il risk management e le difficoltà che comporta il trattamento e la condivisione di informazioni sensibili. Il futuro, dunque, è vicino (oltre che inevitabile), ma per raggiungerlo bisogna preparare attentamente la strada.