Furio CamilloFurio Camillo è Professore of Business Statistics all’Università di Bologna. Il 25 febbraio sarà uno degli speaker dell’ Explore Talks & Tech Tour “Intelligenza artificiale e Big Data: ecco cosa serve alle aziende per crescere”.

 

Quali skill o nuove competenze serviranno in futuro per gestire l’IA in fabbrica?

Ovviamente degli skill che vedano la statistica e l’informatica contemporanea come una specie di elementi di base, che facciano parte quindi della cultura di base dell’individuo.
Il vero skill “utile” dovrebbe essere quello più legato alla conoscenza del dominio specifico, dove però l’approccio statistico-probabilistico ai dati sia solidamente radicato nella cultura generale delle persone coinvolte, insieme alla corretta conoscenza di elementi informatici relativi alla data-preparation e alla data-manipulation. Un processo culturale piuttosto lungo probabilmente. Nel frattempo le aziende più virtuose e un po’ più visionarie costruiranno degli staff multiculturali a copertura dei diversi skill necessari. Resta il problema organizzativo del management di tali gruppi di competenze in staff: in alcuni casi sembra infatti che, allo stato attuale, il mestiere del manager di reparti di data-scientist sembra ancora un mestiere poco codificato e difficile da sintetizzare.

Come si costruisce un progetto efficace basato sull’IA in ambito manifatturiero?

Occorre fare una premessa: la mia visione è quella di uno “scienziato dei dati” che ha come punto di partenza culturale quello della statistica aziendale. Dunque un approccio analitico legato alla visione “statistica” dei dati disponibili in un’organizzazione di business.

La visione statistica parte di solito dall’analisi puntuale dei processi generatori dei dati, ossia dei meccanismi semantici con cui i dati vengono prodotti e del ruolo che l’entità generatrice di dati svolge nella filiera che afferisce alla particolare attività produttiva dell’azienda.

In una prima semplificazione, possiamo dire che ci sono due macro sistemi generatori di dati che fanno riferimento ai due grandi produttori di dati in un’azienda: le macchine e le persone. A proposito delle macchine poi è evidente che anche queste sono state “programmate” o vengono “usate” da persone fisiche, ma ciò che accade (o dovrebbe accadere) è che la generazione dei dati segue dei protocolli molto rigidi o comunque ben definiti.

Intendo dire che il comportamento delle macchine è di fatto “facilmente” modellabile dal punto di vista statistico poiché segue delle regole razionali o razionalmente definite a priori. Il comportamento umano è molto più complicato poiché il più delle volte la sua razionalità è solo un modello logico con cui si semplifica una realtà complessa nella quale l’interazione delle diverse componenti decisionali è delicata, mutevole nel tempo e nello spazio sulle stesse persone a seconda dello status, a volte non-osservabile, di molteplici fattori latenti e pochi fattori manifesti. Faccio riferimento, ad esempio, all’influenza che una campagna di comunicazione può avere su un singolo cliente o consumatore per finalizzare un atto di acquisto. E questo, nella mia esperienza, vale non solo nel cosiddetto ambito B2C ma anche in quello B2B: gestione delle reti di vendita, gestione della relazione col cliente B2B, misure di elasticità al prezzo o ad altre componenti del mix di offerta commerciale del prodotto o del servizio.

In ambito manifatturiero quindi credo sia determinante oggi sfruttare a pieno la tecnologia dei motori di machine learning, magari inseriti in contesti decisionali di tipo AI, per fare delle scelte, per monitorare in tempo reale la produzione e la vendita, per stimare in tempo reale le diverse propensioni a un corretto funzionamento di una macchina o l’attitudine a un comportamento di acquisto interessante da parte di un nostro cliente, actual o prospect che sia. Siamo in un momento in cui la tecnologia è in grado di supportare totalmente un vero e proprio approccio scientifico “complesso” all’analisi e al trattamento dei dati.

Operativamente si tratta comunque sempre di valutare o stimare una probabilità che un evento “interessante” accada e lasciare all’AI il potere di decidere le mosse perché accada ciò che è più profittevole per l’azienda, implementando funzioni di costo-opportunità. I motori statistici sottostanti, ossia gli alimentatori delle soluzioni di AI, devono dunque sempre fare i conti con la probabilità e la sua gestione. Credo che ciò debba avvenire usando rigorosi modelli analitici statistici che solo nell’ultimo atto si trasformino in algoritmi e che abbiano la genesi in prove scientifiche di laboratorio, seguendo dunque un vero e proprio approccio scientifico alla costruzione dell’algoritmo finale di ottimizzazione del risultato operativo e di business.

A tale proposito occorre poi sottolineare che uno dei problemi nell’uso della AI sarà sempre più quello dell’embedding, nei modelli statistici sottostanti, di corrette procedure per il trattamento e la modellazione del cosiddetto “evento raro”. Di per sé, i processi di auto-apprendimento partono dalla conoscenza contenuta nei database storici del fenomeno di interesse e questo, se non opportunamente trattato nei modelli sottostanti, potrà portare a decisioni automatiche “non innovative”. Un esempio è quello legato alle proposizioni commerciali che già oggi i motori automatici di profilazione ci sottopongono durante il nostro comportamento in Internet coi nostri device: se la proposta non è basata su una stima “lungimirante” dei nostri desideri l’offerta si limiterà a proporci quanto è stato da noi già acquistato di recente, in una sorta di effetto “dejà vu” esattamente come quello utilizzato nell’impianto narrativo del cult-movie di fine anni 90 Matrix e che offriva ai protagonisti ribelli delle occasioni di riconoscimento di comportamenti difettosi nell’intelligenza artificiale della macchina.