DIRITTO & IMPRESA
Luciano Daffarra
Giugno 2023
Il 18 giugno 2023 due senatori del Congresso degli Stati Uniti d’America, Josh Hawley e Richard Blumenthal, hanno presentato una proposta di legge (la S-1993) che mira a derogare al principio di esenzione dalla responsabilità, civile e penale, previsto a favore degli intermediari dei servizi on-line, per i danni derivanti dalla diffusione di dati e informazioni provenienti da un altro fornitore di contenuti[1].
Questa iniziativa legislativa, piuttosto che apparire come un isolato tentativo di arginare i crescenti problemi che si manifestano attraverso l’impiego dell’intelligenza artificiale c.d. “generativa”, suggerisce che, oltre all’adozione di “codici di condotta” da parte dei gestori delle piattaforme di IA, si provveda a stabilire, da parte dell’Autorità competente (la NTIA – National Telecommunications and Information Administration del Dipartimento del Commercio USA), una serie di strumenti che garantiscano la trasparenza, la valutazione, la verifica e il controllo dei sistemi di intelligenza artificiale.
A tale proposito, proprio la NTIA l’11 aprile aveva aperto una consultazione pubblica volta a raccogliere le opinioni di operatori ed esperti su una “AI Accountability Policy”[2], che lo stesso presidente Joe Biden aveva stimolato in precedenza attraverso l’adozione e la comunicazione al pubblico, sul sito web della Casa Bianca, del “Blueprint for an AI Bill of Rights[3]”. Questo atto d’indirizzo indica cinque principi che devono guidare la progettazione, l’uso e la distribuzione dei servizi di IA negli Stati Uniti. Le aree identificate dal governo statunitense riguardano la creazione di “sistemi sicuri ed efficaci”, la “protezione contro la c.d. discriminazione algoritmica”, la “tutela dei dati personali”, gli “avvisi e le spiegazioni da fornire agli utenti”, la possibilità di adottare “alternative umane e opzioni di ripiego” per il caso di insufficienza o di malfunzionamento dei sistemi di IA.
Lungo la medesima linea di certezza e di prudenza che devono informare l’azione degli operatori del settore nell’adottare apparati tecnologici automatizzati suscettibili di porre a rischio la democrazia e i diritti dei cittadini, si sono espressi, attraverso un documento di replica ai quesiti posti dalla NTIA nella consultazione pubblica sopra ricordata, numerosi Attorney General degli Stati dell’Unione, 23 per la precisione. In un “position paper” trasmesso all’ente governativo il 12 giugno 2023, gli alti magistrati hanno evidenziato l’esigenza che il perimetro di un’efficace disciplina regolamentare dell’IA debba basarsi sulla trasparenza, consentendo anzitutto agli utenti di essere informati sul fatto che essi stanno interagendo con un sistema automatizzato e circa la possibilità che vi siano rischi “lievi o rilevanti” nell’impiego di tali strumenti.
In quest’ambito è stata formulata la raccomandazione che vengano istituiti cicli continui di verifica e di controllo – indipendenti e standardizzati oltre che certificati e registrati - sul funzionamento degli apparati di IA che devono essere in grado, da un lato, di impedire che si producano danni non intenzionali e, dall’altro, di evitare possibili manipolazioni dei dati, ipotesi queste che si sono già verificate in passato. Per questa ragione, secondo i redattori del documento, la verifica di affidabilità dei sistemi di intelligenza artificiale dovrebbe anticiparne l’implementazione, così da ridurre al minimo il rischio di errori e di danni, dovendosi dimostrare al contempo da parte dei loro gestori che i benefici che derivano agli utenti dall’uso di ogni nuovo sistema superino i rischi e i problemi ad esso connessi.
Oltre all’ineludibile necessità di disciplinare per legge, negli anni a venire, l’intera materia, impedendo il ricorso a strumenti automatizzati in certe aree ad alto rischio, così come suggerito dalle recenti regole comunitarie europee[4], secondo l’elaborato degli Attorney General firmatari, deve essere previsto, per i soggetti eventualmente danneggiati dall’impiego dei sistemi di IA, il diritto all’azione di regresso nei confronti di coloro che risultino coinvolti nel loro sviluppo e impiego.
Su molti dei temi oggetto dei principi fondamentali, dei rilievi e dei suggerimenti sopra tratteggiati, vi è piena sintonia nel testo del Regolamento dell’Unione Europea in materia di IA, il quale proseguirà di fronte al “Trilogo” il suo iter legislativo fin dal prossimo mese di luglio. Nel corso della procedura legislativa del Regolamento sull’IA durante la sessione di voto al Parlamento Europeo dello scorso 14 giugno, è stato inserito un emendamento della Commissione, il n. 399, che prevede l’inserimento nella normativa comunitaria di un nuovo art. 28 b.[5] La disposizione è suddivisa in quattro paragrafi e, nello stabilire una serie di principi cui si devono attenere i fornitori degli algoritmi che dispongano di una vasta banca di dati raccolti dalla Rete (i c.d. “foundation model”), va a toccare, oltre a molti dei requisiti che si vogliono prescritti per legge in base all’esperienza statunitense, anche alcune aree specifiche della cultura europea.
Si fa riferimento, fra gli altri, agli obblighi per i fornitori di servizi di IA di adottare modelli algoritmici capaci di ridurre il consumo energetico, l’uso di risorse e di rifiuti, dando al contempo contezza dei consumi di energia e di risorse implicati nel processo, garantendo la loro misurabilità. Nel tenere conto, in particolare, dell’IA “generativa”, gli stessi “foundation model” dovranno essere conformi alla normativa europea e ai diritti fondamentali che essa tutela, valori che comprendono la libertà di opinione e la tutela del diritto d’autore. A riguardo di quest’ultimo, i fornitori dei servizi dovranno provare l’adozione di strumenti che prevengano un impiego abusivo delle opere tutelate. E su questo punto possiamo affermare che le prescrizioni che stanno confluendo nell’ambito istituzionale, politico e legislativo negli USA e nell’UE sono positivamente orientate a risolvere le criticità che si sono ripetutamente verificate in tempi recenti a causa di un’utilizzazione impropria delle macchine che operano utilizzando sistemi automatizzati di intelligenza artificiale[6], imponendo agli Stati scelte appropriate a un tema che è di importanza vitale per il presente e il futuro dell’umanità.
Avv. Luciano Daffarra, C-Lex Studio Legale.
[1] Il Titolo 47 dello U.S. Code al § 230 include due principali fattispecie di scriminante a favore dei soggetti che mettono a disposizione del pubblico contenuti on-line: quella di cui alla lett. (c)(1) e l’altra inserita alla lett. (c)(2). La previsione di cui alla lett. (c)(1) afferma: "Nessun fornitore o utente di un servizio informatico interattivo deve essere trattato come editore o come autore di qualsiasi informazione proveniente da un altro fornitore di contenuti informativi.". il secondo principio contenuto nella Section 230 (c) (2) afferma che i fornitori di servizi non sono responsabili di "qualsiasi azione (da essi) intrapresa volontariamente in buona fede per limitare l'accesso o la disponibilità di contenuti oggetto di contestazione”.
[2] https://ntia.gov/issues/artificial-intelligence/request-for-comments
[3] https://www.whitehouse.gov/ostp/ai-bill-of-rights/
[4] Si fa riferimento alla Proposta di Regolamento del Parlamento Europeo e del Consiglio che stabilisce Regole armonizzate sull'intelligenza Artificiale (Legge sull'intelligenza artificiale) e modifica alcuni atti legislativi dell'Unione: https://eur-lex.europa.eu/legal-content/IT/TXT/HTML/?uri=CELEX:52021PC0206 COM/2021/206 final[5] Qui il testo emendato nella versione approvata dall’Assemblea il 14 giugno 2023: https://www.europarl.europa.eu/doceo/document/TA-9-2023-0236_EN.pdf
[6] Le azioni giudiziarie avviate negli Stati Uniti nei confronti dei titolari di sistemi di IA comprendono una varietà di fattispecie che includono, fra i molti attualmente pendenti: la violazione della privacy, l’uso dei sistemi di IA per riprodurre e trasformare immagini di proprietà di terzi violando il copyright e i dati personali, l’utilizzazione di sistemi atti a farsi aggiudicare appalti pubblici attraverso l’adozione di schemi fraudolenti.
Leggi Hbr Italia
anche su tablet e computer
Newsletter