Il tracciamento dei Big Data ai tempi del Covid-19 nei settori strategici della Blockchain, Gdpr, AI
Tra i temi legati all’innovazione quello del tracciamento Big Data non è certo il più recente ma, assieme a quello del GDPR e delle altre forme di compliance del mondo digital, ai tempi del Covid-19 diventa uno dei più attuali. Sono infatti moltissimi i comportamenti individuali che possono essere tracciati e conservati.
Le nuove tecnologie digitali – e un mondo sempre più̀ basato sull’interconnessione – hanno spinto la misurazione quantitativa dei fenomeni generando l’esigenza della gestione di grandi quantitativi di dati.
Le preferenze di consumo, gli spostamenti, l’opinione personale e la rete di relazioni sono solo quelli più evidenti a chiunque possieda uno smartphone. La pandemia da Covid-19 sarà un acceleratore anche della tendenza a dare alla raccolta e gestione del dato una valenza nevralgica.
Già prima si parlava di “data as the new currency” a sottolineare come il denaro stesse cedendo al dato la valenza di vera e propria “moneta” nei rapporti economici di scambio.
Gli scenari futuri che prevedono il tracciamento sanitario, la crescita dello smartworking, l’accelerazione dei processi di automazione legati allo sviluppo delle IoT, hanno alla base le strutture dei dati e il nostro rapporto con essi.
Quando parliamo di Big Data dobbiamo metterli in connessione con il tema fondamentale ovvero il loro effetto sui processi decisionali. L’opinione individuale – che è alla base delle nostre decisioni – è frutto di una serie di elementi: le esperienze, le informazioni fruite, le comunità di appartenenza, le relazioni che intratteniamo ecc. ecc…
Questi comportamenti hanno dei “sintomi” di cui ormai lasciamo traccia ovunque. L’uso di determinate espressioni linguistiche è, ad esempio, un ottimo indicatore del livello culturale e dell’apparenza sociale di una persona e se messo in relazione con un dato elementare come i suoi spostamenti riesce a costruire un quadro molto attendibile circa un individuo e il suo cluster di appartenenza.
(A tal proposito è molto affascinante anche il tema degli “Inverted data” di cui un esempio ormai presente a livello globale è la piattaforma Netflix). È il Data Mining l’insieme delle tecniche e metodologie che affronta l’estrazione di informazioni dall’analisi di grandi quantificativi di dati.
L’automazione, la creazione di algoritmi sempre più performanti e la tecnologia finalizzate al continuo miglioramento dell’estrazione dei dati sono in continua crescita e il contributo dei modelli predittivi elaborati da sistemi IoT è prossimo a permettere un salto quantico.
Basti pensare che già nel 2013 Thomas H. Davenport in un articolo sul Wall Street Journal sosteneva che gli umani possono creare tipicamente uno o due buoni modelli alla settimana; il machine learning ne può creare qualche migliaio.
Mentre siamo impegnati a capire quanto possa essere cresciuto l’impatto della tecnologia negli ultimi 7 anni, ricordiamoci che da sempre le decisioni collettive sono frutto di un processo che si articola nel rapporto tra il consenso e la conoscenza delle determinanti di un problema complesso.
Solo quando abbiamo la certezza sia della conoscenza che del consenso siamo in grado di compiere decisioni razionali. La conoscenza incerta in presenza di consenso certo produce un avanzamento parziale, fatto di piccoli passi avanti e modifiche più o meno sostanziali delle determinanti frutto del bisogno di consegnare qualcosa a quegli individui che esprimono il consenso stesso.
A parti invertite si creano le coalizioni (o le nicchie se vogliamo usare un termine più vicino alle dinamiche di mercato) in cui la certezza sul piano tecnico o ideale della conoscenza fatica a generare intorno a sé il consenso necessario per sbloccare la decisione.
Nel regno dell’incertezza assistiamo al continuo formarsi e sciogliersi delle coalizioni e delle determinanti della conoscenza (o degli attributi / driver se vogliamo tornare ad una prospettiva di mercato).
Cosa c’entra tutto questo con i Big Data? La possibilità di misurare i comportamenti, di analizzarli e di avere modelli previsionali affidabili permette di rendere evidenti i processi decisionali e di anticiparli.
Se fino ad oggi ci siamo impegnati a colmare un gap sugli standard operativi rispetto alla gestione dei dati proprietari, vivendoli come una mera questione organizzativa e gestionale, adesso il patrimonio di un’organizzazione è composto dai dati in suo possesso e dall’uso che ne fa.
Il vantaggio competitivo e i fattori critici di successo sono frutto della capacità di raccogliere, mantenere, analizzare e gestire i dati proprietari in maniera più veloce ed efficace dei competitor.
Qualunque possa essere il motivo, dalla resistenza al cambiamento, alla mancanza delle competenze strategiche all’interno dell’organizzazione di cui facciamo parte, passando per le ridotte risorse per gli investimenti necessari, non c’è più spazio per ulteriori ritardi.
Occorre orientare i propri obiettivi – e risorse – nella giusta direzione.