MONDO DIGITALE

Il mondo è la superficie (e l’abisso) dell’attacco

Cosimo Accoto

Gennaio 2025

Il mondo è la superficie (e l’abisso) dell’attacco

L’insicurezza nativa del digitale

Dobbiamo prendere consapevolezza e comprendere che la società digitale nasce insicura sin dalle sue origini e nelle sue fondamenta. E lo è perché il motore invisibile che movimenta la società digitale (e con cui costruiamo applicazioni, reti, servizi, architetture e macchine), il codice software, è una scrittura arrischiata del mondo secondo almeno tre forme distinte (ma interconnesse) di insicurezza. Dobbiamo riconoscere, dunque, che il codice software è:

a) fallibile;

b) degradabile;

c) vulnerabile.

In primis, il software è fallibile perché i vari processi interni di riscrittura che gli sviluppatori del software fanno per passare dal linguaggio umano a un linguaggio comprensibile a una macchina non sono per nulla assicurati nel loro svolgersi ideale senza difetti e, di conseguenza, questi svolgimenti sono sempre a rischio di fallimento.

In secondo luogo, il software è degradabile nel tempo e nella scala. Lo sviluppo, cioè, continuo e stratificato di programmi e applicazioni installati dentro architetture di rete, distribuite, virtualizzate, da aggiornare e tenere in manutenzione (refactoring) rischia di portare all’illeggibilità e all’incomprensibilità per l’umano del codice prodotto. Ed è per questo che si fatica a controllare e a gestire architetture e applicazioni.

Da ultimo, infine, il codice software è vulnerabile, non solo a causa di fallimenti interni o di degradazioni nel tempo e nella scala, ma perché è preda di aggressioni informatiche esterne, malevole e criminali. Che siano attacchi generati da singoli o collettività, da privati o Stati, il software rischia l’essere del mondo. A partire dalle infrastrutture sociali primarie e vitali, da quelle ingegneristiche come le installazioni di difesa a quelle istituzionali come le procedure democratiche.

 

Umani più vulnerabili nell’era dell’IA

A queste insicurezze originarie del codice (fallibilità, degradabilità, vulnerabilità), oggi stiamo aggiungendo un’ulteriore complicanza: l’introduzione e l’adozione dell’intelligenza artificiale nelle sue molte forme dentro le nostre vite personali, professionali e politiche. Si tratta di macchine estrattive (elaborano dati), discriminative (distinguono volti e azioni), predittive (modellano il futuro), generative (creano video, voci e testi), operative (agiscono con autonomia crescente) che si adattano ai contesti influenzando ambienti reali e mondi virtuali.

In ragione di queste capacità, stanno aumentando le criticità per chi è chiamato a gestire la sicurezza: allucinazioni fuorvianti nelle informazioni e nelle risposte elaborate, ipnotizzazioni malevole dei modelli linguistici per aggirare vincoli etici e legali, contaminazioni criminali con avvelenamento dei dati nell’addestramento delle reti neurali. Nuove fallibilità (come modelli fondativi che collassano nel passaggio da un dominio all’altro), nuove degradabilità (ad esempio a causa di dati di addestramento non originari) e nuove vulnerabilità (con produzione di contenuti falsi ad alto grado di realismo) stanno emergendo. E minano con barriere all’ingresso sempre più basse non solo le pratiche della sicurezza informatica, ma anche molte delle conoscenze e delle competenze fondamentali per il nostro vivere civile e poi politico.

Le rivoluzioni inflattive mediali di fatto scardinano, ad esempio, la distinzione storicamente data tra vero e falso, l’autorevolezza delle fonti informative istituzionali, le strategie di identificazione e autenticazione. Dimensioni che, ove non adeguatamente ridisegnate e aggiornate, di certo terremoteranno i contratti sociali fiduciari che abbiamo costruito con fatica nel tempo.

 

Come costruiremo la nuova fiducia?

Dunque, abbiamo un grande problema di incertezza e insicurezza (native e derivate) che ci sollecita a costruire nuove forme di affidamento e nuovi strumenti di rassicurazione al fine di ripristinare la fiducia incrinata, e forse persa. Certamente, stiamo esplorando direzioni e prospettive cautelative molteplici: istruzione educativa, regolazione giuridica, conformazione etica, direzione politica.

Ma, naturalmente, centrale è anche la soluzione tecnologica. O meglio, le diverse soluzioni allo studio. Sono in sviluppo, ad esempio, sistemi e standard informatico-ingegneristici per riconoscere contenuti mediali manipolati prodotti da macchine da contenuti prodotti da umani. Le soluzioni prototipate oggi da società tecnologiche insieme a consorzi sono molteplici: inserimento all’origine di marcatori digitali che tracciano ex ante la provenienza dei contenuti, presenza di filigrane invisibili di dati statistici che discriminano tra originali e copie, rilevamento probabilistico della falsità di un’immagine o testo attraverso l’impiego di intelligenze artificiali investigative ex-post.

Un ruolo fondamentale lo giocheranno, però, anche le piattaforme che oggi sono all’origine dell’amplificazione planetaria di fake. Sono loro, di fatto, a produrre un inquinamento informativo come esternalità negativa dei loro modelli di business. Ma anche questo non credo basterà. Oltre a tutto ciò sarà necessario fare innovazione culturale per rispondere alle provocazioni intellettuali dell’IA (non solo per gestire i problemi tecnici): una scrittura (senza permanenza) e un’immagine (senza referenza) produrranno senso e quale? Una macchina autonoma avrà diritto di parola e di decisione, e come? E quali e quante le vulnerabilità evocate dalle “istituzioni” di Turing?

Col divenire planetario della computazione, è il mondo oggi la superficie (e l’abisso) dell’attacco. Non la rete dei dispositivi connessi, come si dice ingenuamente, ma il Pianeta Terra divenuto digitale.

La superficie/abisso del rischio è, dunque, il mondo intero nel suo essere programmabile: il suo esser-ci è, oggi, il suo esser-C.

 

 

Cosimo Accoto, filosofo delle tecnologie, ricercatore affiliato & fellow (MIT Boston), adjunct professor (UNIMORE), ha maturato il suo percorso professionale nella consulenza strategica di management e prima ancora nell’industria dei dati, del software e delle piattaforme. Molti i suoi interessi di ricerca tecnoculturale: filosofia del codice, sensori e dati, automazione e intelligenza artificiale, blockchain, computazione quantistica, realtà estese e metaversi. Pubblica su Economia & Management (SDA Bocconi), Harvard Business Review Italiail Sole 24 OreSistemi & ImpresaAspeniaMIT Sloan Management Review Italia. È autore di un’originale trilogia filosofica sulla civiltà digitale: Il mondo in sintesi (2022), Il mondo ex machina (2019), Il mondo dato (2017) tradotto anche in cinese. Ospite di programmi televisivi (Codice, Rai1) e radiofonici (Smart City, Radio24) dedicati all’innovazione culturale e tecnologica, è speaker per TEHA Ambrosetti, Aspen Institute, Harvard Business Review.

Commenta scrivi/Scopri i commenti

Condividi le tue opinioni su Hbr Italia

Caratteri rimanenti: 400