Tecnologia

Quando fidarsi della capacità decisionale dei robot e quando no

Quando fidarsi della capacità decisionale dei robot e quando no

Macchine sempre più smart e adattive stanno diventando parte integrante delle nostre esistenze tanto quanto internet e sono sempre più numerose le decisioni che demandiamo ad algoritmi intelligenti, che apprendono da quantità via via più importanti e diversificate di dati.
Anche se questi “robot” diventano ogni giorno più presenti nella nostra vita, non abbiamo alcun quadro di riferimento che ci aiuti a valutare quali decisioni dovremmo delegare senza preoccupazioni agli algoritmi e quali conservare come appannaggio di noi esseri umani. Questo è sorprendente, considerata la posta in gioco.
Propongo quindi un modello di analisi del rischio che ci aiuti a decidere quando e come assegnare problematiche decisionali agli esseri umani o a macchine. L'ho sviluppato a partire dai venticinque anni di esperienza che io e i miei collaboratori abbiamo maturato nell'implementazione di sistemi previsionali, in settori come quello finanziario, sanitario, educativo e sportivo.
Il modello suddivide i problemi sulla base di due criteri indipendenti: la prevedibilità e il costo per errore. Pensiamo alla prima di queste due dimensioni cioè la prevedibilità. Essa indica fino a che punto possiamo aspettarci che i migliori sistemi predittivi oggi esistenti funzionino (si veda la figura 1, "Le attività con cui le macchine si confrontano").


Il diagramma mette in fila una serie di problemi, ordinandoli a partire dal loro grado di prevedibilità sulla base dello stato dell'arte dei sistemi di intelligenza computazionale e artificiale. All'estrema sinistra, troviamo i lanci di moneta puri e semplici, cioè quei casi in cui la capacità previsionale non andrà mai oltre la casualità. All'estrema destra, abbiamo i problemi decisionali puramente deterministici e meccanici.
Spostandoci da sinistra verso destra, partiamo dall'esempio del trading a lungo termine, in cui le prove (e la teoria economica) ci dicono che gli esseri umani non sono tanto bravi e che, di solito, si discostano poco dalla casualità. Più l'orizzonte predittivo si accorcia (nel trading a breve termine e ad alta frequenza), però, più la prevedibilità aumenta, benché solo marginalmente. Andando verso destra, l'individuazione delle frodi legate alle carte di credito e i filtri spam hanno livelli maggiori di prevedibilità, anche se i sistemi di oggi generano tuttora un alto numero di falsi positivi e di falsi negativi. All'estrema destra, posizioniamo problemi altamente strutturati che presentano il maggior grado di prevedibilità. Le auto senza conducente, per esempio, si muovono in ambiti di cui comprendiamo bene gli aspetti fisici. Anche se resta un margine di incertezza rispetto agli spostamenti degli altri veicoli e all'ambiente, le macchine possono comunque imparare a guidare in modo molto più sicuro, in media, degli esseri umani.
Mettendo in fila le attività lungo questa direttrice, diventa chiaro dove risiedono le attuali sfide dell'automazione, ma anche le opportunità che vi sono legate. Tuttavia, anche se potremmo avere la tentazione di limitare l'analisi alle discussioni sul potere predittivo e dedurne che «problemi molto legati ad aspetti specifici e quantificabili si possono robotizzare, e che quelli più vicini alla casualità richiedono l'intervento degli esseri umani», questa visione unidimensionale è incompleta. Per calcolare in modo corretto se delegare una decisione a un robot, dobbiamo prendere in considerazione le conseguenze di un errore: una variabile che risulta altrettanto (se non più) importante dell'accuratezza di una previsione.
In questa rappresentazione più completa e che tiene conto di due dimensioni (io la chiamo "Mappa dell'automazione decisionale", in figura 2), l'asse orizzontale indica la prevedibilità, come nel grafico precedente. Il costo per errore, che può essere espresso in termini monetari o usando altri parametri unitari (a seconda del problema) viene inserito sull'asse verticale. L'aggiunta di questa seconda dimensione fornisce spunti ulteriori.

Prendiamo due dei problemi più facili da prevedere che abbiamo già citato: il filtro spam e le auto senza conducente. Il filtro spam presenta un difficile problema di antagonismo, in cui gli spammer cercano di aggirare il filtro che, però, è programmato per non bloccare i contenuti legittimi, per cui il costo dei falsi positivi dovrebbe essere molto basso, così come la quantità di spam che riesce a passare. I costi di un errore generato da un'auto senza conducente, invece, possono essere molto elevati. I costi delle decisioni dei droni da combattimento (a metà verso destra) sono anch'essi chiaramente elevati (il bombardamento accidentale di un ospedale invece che di un deposito d'armi, tanto per dirne una), ma questo problema differisce da quello delle auto senza conducente per almeno due motivi: i droni vengono usati in scenari di guerra, dove la tolleranza verso gli errori è più alta che sulle strade di una periferia urbana e il fatto di usarli mitiga il rischio sostanziale di piloti in volo su territorio nemico.
Gli errori di previsione in ambito sanitario hanno pure dei costi significativi. Non riuscire a prevedere l'insorgere del diabete, per esempio, producendo quindi un falso negativo può tradursi in conseguenze gravi, come la perdita di un arto. I falsi positivi potrebbero portare alla prescrizione di farmaci o di esami di cui non c'è bisogno.
Ovviamente, il posizionamento di una problematica particolare su questo schema di rappresentazione bidimensionale cambia anche in funzione delle trasformazioni tecnologiche e sociali. I miglioramenti della capacità predittiva, dovuti alla disponibilità di più dati e di algoritmi migliori, sposta i problemi verso destra. (Questi slittamenti sono mostrati dalle frecce orizzontali). Nuovi limiti imposti dagli organismi regolatori aumentano il costo degli errori e spostano un problema verso l'alto, mentre meno regole o una riduzione della responsabilità lo fanno andare giù (frecce verticali). Anche le modifiche delle norme e dei valori sociali (come il venir meno del sostegno dell'opinione pubblica a una guerra condotta coi droni) producono alterazioni della mappa.
La "Mappa del futuro dell'automazione decisionale" (figura 3) illustra alcuni esempi di quelli che possono essere i movimenti relativi ai vari problemi, oltre a possibili “frontiere dell'automazione” fra decisioni corrette prese dagli esseri umani e dalle macchine. Una frontiera dell'automazione (rappresentata dalle linee tratteggiate) è una linea inclinata che sale verso l'alto e che rappresenta il confine esistente fra prevedibilità accettabile ed errore. Un costo per errore più elevato richiede un grado più alto di prevedibilità sul piano dell'automazione. La frontiera convessa della figura rappresenta un limite all'automazione più stringente rispetto a quella dritta.


Sotto la linea di frontiera dell'automazione, troviamo diversi problemi, come il trading ad alta frequenza e l'advertising online, che sono già stati in larga parte automatizzati grazie a un costo per errore che è relativamente basso se confrontato con i benefici di processi decisionali affidabili e scalabili. Viceversa, sopra questa linea di demarcazione scopriamo che persino i migliori sistemi di previsione del diabete generano tuttora troppi falsi positivi e falsi negativi e che ciascuno di essi ha un costo troppo elevato per giustificare un uso esclusivamente automatizzato. Ecco perché i medici fanno ancora parte appieno del processo di valutazione del rischio di diabete per i pazienti. Dall'altra parte, la disponibilità di dati genetici e di altro tipo potrebbe migliorare moltissimo l'accuratezza di previsione (grande freccia arancione orizzontale) e creare, in futuro, professionisti sanitari robotizzati affidabili.
I cambiamenti che intervengono in tema di prevedibilità e costo per errore possono spingere un problema dentro o fuori dalla “zona robot”. Via via che le auto senza conducente migliorano e noi ci abituiamo di più a loro, l'introduzione di leggi che ne limitino la responsabilità potrebbe facilitare l'emersione di mercati assicurativi che dovrebbero ridurre al minimo il costo dell'errore.
La "Mappa del futuro dell'automazione decisionale" può essere usata da manager, investitori, enti regolatori e policy maker per rispondere a domande circa i processi decisionali automatizzati. Può supportare le persone nello stabilire un ordine di priorità fra le iniziative legate all'automazione e far emergere problematiche per cui l'expertise necessario può essere appreso dalle macchine tramite i dati, con uno sforzo minimo di programmazione preventiva e costi bassi per errore.
Forse, la sfida più grande per l'impiego di macchine che apprendono a partire dai dati è l'incertezza associata al modo in cui gestiscono i “casi al limite” quando li incontrano per la prima volta, come nel caso degli ostacoli incontrati dall'auto senza conducente di Google che ha causato un piccolo incidente. Gli esseri umani applicano in modo intuitivo il buonsenso alle situazioni insolite o nuove, ma in questi casi dubbi rimane un discreto grado di incertezza su cosa la macchina abbia imparato e su come si comporterà. Nelle occasioni di questo tipo, il risultato potrebbe essere di gran lunga peggiore. Maggiore è l'incertezza attorno a questi casi, meno preferiremo le macchine per tutte quelle decisioni che poggiano sulla buona vecchia evoluzione, sull'intuizione e sul buonsenso.
Per la società, la preoccupazione più grande è se l'automazione renderà milioni di posti di lavoro obsoleti. Agli inizi degli anni '60, il Premio Nobel per l'economia Herbert Simon disse che, benché molte decisioni “programmabili” nel mondo del business sarebbe state automatizzate nel giro di qualche decennio, le preoccupazioni circa l'“uomo nero dell'automazione” erano mal riposte. Finora, le proiezioni di Simon si sono rivelate preveggenti su entrambi i fronti, dal momento che l'automazione continua a creare nuovi posti di lavoro e stili di vita per gli esseri umani. Ciò che resta da vedere, tuttavia, è se la nuova generazione di macchine che sono in grado di vedere, sentire, leggere e pensare elimineranno più posti di lavoro per le persone di quanti sono in grado di crearne.

Vasant Dhar insegna Sistemi informativi alla Stern School of Business della New York University ed è caporedattore della rivista Big Data.

Lascia il tuo commento

Condividi le tue opinioni su

Caratteri rimanenti: 2500

Temi più seguiti

Partner center