INTELLIGENZA ARTIFICIALE

L’errore umano è alla base della maggior parte dei cyberattacchi. L’IA può aiutare?

Tomas Chamorro-Premuzic

Maggio 2023

L'errore umano è alla base della maggior parte dei cyberattacchi. L'IA può aiutare?

Illustrazione di Aaron Marin

SI PREVEDE CHE QUEST’ANNO l’impatto della criminalità informatica raggiungerà i 10.000 miliardi di dollari, superando il PIL di tutti i Paesi del mondo tranne Stati Uniti e Cina. Inoltre, si stima che la cifra aumenterà fino all’ammontare di quasi 24.000 miliardi nei prossimi quattro anni.

Sebbene gli hacker più sofisticati e i cyberattacchi alimentati dall’intelligenza artificiale tendano a occupare i titoli dei giornali, una cosa è chiara: la minaccia più grande è l’errore umano, che rappresenta oltre l’80% degli incidenti. Questo nonostante l’aumento esponenziale della formazione informatica delle organizzazioni nell’ultimo decennio e la maggiore consapevolezza e mitigazione dei rischi nelle aziende.

L’intelligenza artificiale potrebbe venire in soccorso? Potrebbe, cioè, essere lo strumento che aiuta le aziende a tenere sotto controllo la negligenza umana? E se così fosse, quali sono i pro e i contro dell’affidarsi all’intelligenza artificiale per ridurre il rischio del comportamento delle persone?

Non sorprende che vi sia oggi un grande interesse per la cybersecurity guidata dall’intelligenza artificiale e le stime indicano che il mercato degli strumenti di sicurezza informatica passerà da soli 4 miliardi di dollari nel 2017 a quasi 35 miliardi di dollari di valore netto entro il 2025. Questi strumenti includono tipicamente l’uso del machine learning, del deep learning e dell’elaborazione del linguaggio naturale per ridurre le attività dannose e rilevare anomalie informatiche, frodi o intrusioni. La maggior parte di questi strumenti si concentra sull’individuazione dei cambiamenti di modello negli ecosistemi di dati, come gli asset aziendali in cloud, piattaforme e data warehouse, con un livello di sensibilità e granularità che di solito sfugge agli osservatori umani.

Ad esempio, gli algoritmi di apprendimento automatico supervisionato sono in grado di classificare gli attacchi maligni via e-mail con un’accuratezza del 98%, individuando le caratteristiche “simili” basate sulla classificazione o sulla codifica umana, mentre il riconoscimento delle intrusioni di rete da parte del deep learning ha raggiunto un’accuratezza del 99,9%. Per quanto riguarda l’elaborazione del linguaggio naturale, ha dimostrato alti livelli di affidabilità e accuratezza nel rilevare attività di phishing e malware attraverso l’estrazione di parole chiave nei domini e nei messaggi di posta elettronica, dove l’intuizione umana generalmente fallisce.

Come hanno notato gli studiosi, tuttavia, affidarsi all’IA per proteggere le aziende dai cyberattacchi è un’“arma a doppio taglio”. In particolare, la ricerca mostra che la semplice iniezione dell’8% di dati di addestramento “velenosi” o errati può ridurre l’accuratezza dell’IA di ben il 75%, il che non è dissimile dal modo in cui gli utenti corrompono le interfacce utente conversazionali o i modelli linguistici di grandi dimensioni iniettando preferenze sessiste o linguaggio razzista nei dati di addestramento. Come dice spesso ChatGPT, “come modello linguistico, sono tanto preciso quanto le informazioni che ricevo”, il che crea un perenne gioco del gatto e del topo in cui l’IA deve disimparare con la stessa velocità e frequenza con cui impara. In effetti, l’affidabilità e l’accuratezza dell’IA nel prevenire gli attacchi passati è spesso un debole predittore di quelli futuri.

Inoltre, la fiducia nell’IA tende a far sì che le persone deleghino compiti indesiderati all’IA senza comprensione o supervisione, in particolare quando l’IA non è spiegabile (il che, paradossalmente, spesso coesiste con il massimo livello di accuratezza). L’eccessiva fiducia nell’IA è ben documentata, in particolare quando le persone sono sotto pressione temporale e spesso porta a ulteriori responsabilità degli esseri umani che a sua volta aumenta il loro comportamento negligente e avventato. Di conseguenza, invece di migliorare la tanto necessaria collaborazione tra intelligenza umana e macchina, la conseguenza non voluta è che quest’ultima finisce per diluire la prima.

Come sostengo nel mio ultimo libro, I, Human: AI, Automation, and the Quest to Reclaim What Makes Us Unique, sembra esserci una tendenza generale per cui i progressi dell’intelligenza artificiale vengono accolti come una scusa per la nostra stagnazione intellettuale. La sicurezza informatica non fa eccezione, nel senso che siamo felici di accogliere i progressi della tecnologia per proteggerci dal nostro comportamento negligente o sconsiderato ed essere “fuori dai guai”, dato che possiamo trasferire la colpa dall’errore umano a quello dell’IA. Di certo questo non è un risultato felice per le aziende, quindi la necessità di educare, allertare, formare e gestire il comportamento umano rimane importante come sempre, se non di più.

È importante che le organizzazioni continuino a impegnarsi per aumentare la consapevolezza dei dipendenti sul panorama dei rischi in costante evoluzione, che non potrà che crescere in complessità e incertezza a causa della crescente adozione e penetrazione dell’IA, sia a livello di attacco che di difesa. Anche se non sarà mai possibile estinguere completamente i rischi o eliminare le minacce, l’aspetto più importante non è se ci fidiamo dell’IA o degli esseri umani, ma se ci fidiamo di un’azienda, di un marchio o di una piattaforma piuttosto che di un’altra. Non si tratta di scegliere se affidarsi all’intelligenza umana o artificiale per mantenere le aziende al sicuro dagli attacchi, ma di una cultura che riesca a sfruttare sia le innovazioni tecnologiche sia le competenze umane nella speranza di essere meno vulnerabili di altri.

 

SI TRATTA, IN DEFINITIVA, di una questione di leadership: avere non solo la giusta esperienza o competenza tecnica, ma anche il giusto profilo di sicurezza ai vertici dell’organizzazione, e in particolare nei consigli di amministrazione. Come gli studi dimostrano da decenni, le organizzazioni guidate da leader coscienziosi, etici e consapevoli del rischio hanno molte più probabilità di offrire ai propri dipendenti una cultura e un clima di sicurezza in cui i rischi saranno ancora possibili, ma meno probabili. Certo, ci si può aspettare che queste aziende sfruttino l’IA per mantenere le loro organizzazioni sicure, ma è la loro capacità di educare i lavoratori e migliorare le abitudini umane che le renderà meno vulnerabili agli attacchi e alla negligenza. Come ha giustamente osservato Samuel Johnson, molto prima che la sicurezza informatica diventasse un problema, “le catene dell’abitudine sono troppo deboli per essere percepite finché non sono troppo forti per essere spezzate”.

 

Tomas Chamorro-Premuzic è Chief Innovation Officer di ManpowerGroup, professore di Psicologia aziendale all’University College di Londra e alla Columbia University, cofondatore di deepersignals.com e associato all’Entrepreneurial Finance Lab di Harvard. È autore di Why Do So Many Incompetent Men Become Leaders? (and How to Fix It).

Commenta scrivi/Scopri i commenti

Condividi le tue opinioni su Hbr Italia

Caratteri rimanenti: 400

Leggi Hbr Italia
anche su tablet e computer

Newsletter

Lasciaci la tua mail per essere sempre aggiornato sulle novità di HBR Italia