Computation: come impostare e gestire la transizione digitale

di Antonio Angioni

Verificare la qualità della raccolta dei dati è uno dei primi passi da compiere. Ancora oggi, specialmente fra le Pmi, manca una cultura aziendale orientata al loro uso strategico. L’Intelligenza artificiale si presenta come un valido supporto ma bisogna prima controllare l’affidabilità dell’output generato. In ogni caso il ruolo delle persone resta fondamentale
 

Oltre alla creazione di un digital mindset, su cui abbiamo avuto modo di fornire alcuni dettagli in un precedente articolo, occorre predisporre una road map, un programma per pianificare e gestire la trasformazione digitale al fine di coglierne i vantaggi concreti. Non si tratta infatti di aderire ad una tendenza, ma di ripensare le priorità riflettendo su due dimensioni fondamentali: il valore (value) e il livello di realizzabilità (feasibility).

Riflettere sulla dimensione del valore implica valutare la customer experience (ossia quali tangibili risultati la digitalizzazione può comportare per i clienti), i benefici finanziari (ossia i ritorni in termini di efficienza, di riduzione dei costi, di incremento della qualità percepita e dei prezzi), il ritorno dell’investimento (in funzione del segmento di mercato nel quale si opera), le potenziali sinergie (ossia le ulteriori applicazioni e i potenziali risparmi).

Riflettere sulla dimensione della realizzabilità implica, invece, valutare le priorità (onde evitare costose sovrapposizioni con programmi esistenti o in fase di implementazione), i dati disponibili (rilevanti ai fini dell’ottimizzazione delle operazioni, della personalizzazione dell’offerta, del supporto al processo decisionale) e la facilità di utilizzo degli stessi, nonché la scalabilità (ossia la possibilità di ulteriori applicazioni all’interno dei processi aziendali).


Si tratta in altri termini di impostare un processo di assessment diagnostico che permetta di identificare fra le diverse emergenti soluzioni tecnologiche quella più confacente alle esigenze aziendali. Un assessment che implica di riflettere non solo sul modello di business adottato ma anche, e in particolare, sull’architettura dei dati che sembra essere il passaggio più difficile soprattutto per le piccole e medie imprese. La qualità della raccolta dei dati è fondamentale perché con numeri non adeguatamente processati e strutturati si rischia di complicare se non vanificare l’investimento nella digitalizzazione.

Purtroppo, ci capita spesso di rilevare la mancanza di una cultura aziendale orientata all’utilizzo strategico dei dati. Le decisioni sono basate su intuizioni personali o su pratiche consolidate, senza considerare l’importanza di un approccio ancorato ai dati (data driven). Questo atteggiamento ostacola o rende difficile l’adozione di strumenti e metodologie digitali.

In base alle esperienze in corso di realizzazione con le aziende clienti, abbiamo identificato tre step che possono facilitare la revisione dell’architettura dei dati:

  • Comprendere l’origine e la natura dei dati;
  • Analizzare e classificare i dati;
  • Finalizzare l’utilizzo dei dati.

Comprendere l’origine e la natura dei dati permette innanzitutto di fare ordine, di valutare l’effettiva funzionalità per il business, di superare inutili duplicazioni che si sono sviluppate nel tempo (data silos), di eliminare incrostazioni ed errori, di migliorare la qualità e l’affidabilità degli stessi. Analizzare e classificare i dati, in funzione del loro utilizzo permette di creare una base, una piattaforma sulla quale innestare le soluzioni tecnologiche funzionali al business. Finalizzare l’utilizzo dei dati implica costruire una governance dei dati, prestando attenzione alla privacy, alla sicurezza, al rispetto di norme interne ed esterne (compliance), al controllo degli accessi.

Spesso questo assessment evidenzia come le infrastrutture IT siano obsolete e non ottimizzate, i sistemi adottati non siano integrati fra loro, rendendo difficile ottenere una visione complessiva dei dati e delle informazioni, riducendo l’efficacia degli strumenti di analisi e di reporting. In virtù dei risultati raggiunti attraverso questo processo di assessment si possono identificare i reali fabbisogni, definire il perimetro e le aree nelle quali investire, operare una consapevole selezione delle soluzioni, selezione possibile solo se si ha almeno una conoscenza di base delle nuove tecnologie, delle possibili applicazioni e degli inevitabili compromessi (tradeoffs) da adottare per l’implementazione all’interno dell’azienda. Diversamente il rischio di dipendere dalle suggestioni dei vendors rimane elevato.


Rispetto al passato la scelta è molto ampia e sarà destinata ad aumentare: spazia dagli strumenti di Business Intelligence (es. Microsoft Power BI o Tableau) al cloud computing (es. Google Cloud, AWS o Microsoft Azure), dall’automazione dei processi agli strumenti di Customer Relationship Management (CRM) sino ad arrivare alle soluzioni più sofisticate di intelligenza artificiale con particolare rifermento alla GenAI (Intelligenza artificiale generativa).

Prima di scegliere è importante decidere quali sono le attività specifiche (core) da mantenere all’interno dell’azienda e quali invece da poter delegare all’esterno ricorrendo all’outsourcing. Per le piccole imprese tale decisone può rivelarsi problematica, ma a nostro avviso è importante sviluppare al proprio interno le risorse e le competenze necessarie per mantenere e sviluppare il vantaggio competitivo, almeno per quel che riguarda le applicazioni più intrinseche al business affidando all’esterno quelle meno rilevanti.


La digital excellence non può essere delegata all’esterno perché si corre il rischio di una dipendenza che riduce il vantaggio distintivo e competitivo. Per coloro che in particolare si stanno addentrando e iniziano ad esplorare le applicazioni offerte dall’Intelligenza artificiale generativa (GenAI) desideriamo offrire alcuni spunti di riflessione.

Parafrasando il titolo di un libro di diversi anni fa scritto da Bob Thomas “What machines can’t do” (Cosa le macchine non possono fare) vorremmo, sulla base di quanto sinora sperimentato, definire l’attuale livello di affidabilità delle soluzioni tecnologiche esistenti. Prima di scegliere le aree nelle quali utilizzare l’Intelligenza artificiale non si può prescindere dal livello di affidabilità degli output generati. Per quanto siano sempre più elaborati e sofisticati non possono essere applicati sic et simpliciter senza un controllo e una verifica, che saranno in funzione del livello di tolleranza permesso.

Se da una parte si può ricorrere alla Intelligenza artificiale per generare idee o produrre contenuti di marketing, da adattare poi in funzione del target, non è pensabile dall’altra affidare, per esempio, all’Intelligenza artificiale l’elaborazione di codici di produzione senza aver preventivamente predisposto e simulato gli input e generato indicazioni (prompts) per il sistema, senza intervenire nel processo con le opportune valutazioni. Mentre in alcuni settori dei servizi bancari e assicurativi, l’Intelligenza artificiale è in grado di prendere decisioni finali, non altrettanto si verifica in altri settori come la business intelligence dove la valutazione, la scelta e la decisione finale rimangono di competenza dell’uomo.

L’Intelligenza artificiale è in grado di analizzare entità fisiche o chimiche fornendo tutte le informazioni e le simulazioni ma, sia a monte (per l’impostazione dell’analisi) sia a valle (per le decisioni che devono essere prese), rimane fondamentale il ruolo dell’uomo. Impostare e gestire una digital transformation implica dare inizio ad un complesso processo di cambiamento che non può essere eterodiretto, ma richiede un consapevole impegno da parte delle persone perché le persone, come lo stesso Steve Jobs riconosceva, sono la forza motrice (moving force) del successo.


Puoi leggere l’articolo su “L’imprenditore”.

2 ottobre 2024 – L’Imprenditore