POLITICHE PUBBLICHE
Blair Levin, Larry Downes
Maggio 2023
Marcos Osorio/Stocksy
TESTIMONIANDO davanti al Congresso il 16 maggio, l’amministratore delegato di OpenAI Sam Altman ha affermato che è giunto il momento che le autorità di regolamentazione inizino a porre dei limiti ai potenti sistemi di IA. «Con l’avanzare di questa tecnologia capiamo che le persone sono ansiose di sapere come potrebbe cambiare il nostro modo di vivere. Anche noi lo siamo», ha dichiarato Altman a una commissione del Senato. «Se questa tecnologia va male, può andare molto male», ha detto, sostenendo che potrebbe causare “danni significativi al mondo”. Ha concordato con i legislatori che la supervisione del Governo sarà fondamentale per mitigare i rischi.
Questo è un argomento che un anno fa si trovava a malapena nei radar dei legislatori, ora invece i Governi di tutto il mondo discutono ferocemente i pro e i contro della regolamentazione o addirittura del divieto di alcuni usi delle tecnologie di intelligenza artificiale. La questione su cui i leader aziendali dovrebbero concentrarsi in questo momento, tuttavia, non è come o quando l’intelligenza artificiale sarà regolamentata, ma da chi. Il fatto che siano il Congresso, la Commissione Europea, la Cina o persino gli Stati o i tribunali ordinari a prendere l’iniziativa determinerà la velocità e la traiettoria della trasformazione dell’IA nell’economia globale, proteggendo potenzialmente alcuni settori o limitando la capacità delle aziende di utilizzare la tecnologia per interagire direttamente con i consumatori.
Dal rilascio, nel novembre 2022, di ChatGPT di OpenAI, il chatbot di IA generativa costruito su una rete neurale con modello linguistico di grandi dimensioni (LLM) in grado di auto-migliorarsi, l’uso dell’IA generativa è esploso. Secondo i dati compilati da Statista, ChatGPT ha raggiunto un milione di utenti in cinque giorni, superando le precedenti introduzioni di prodotti internet ad altissima velocità, tra cui Facebook, Spotify e Netflix. Anche Midjourney e DALL-E, LLM che creano illustrazioni personalizzate in base agli input degli utenti, sono esplosi in popolarità, generando milioni di immagini ogni giorno. L’IA generativa soddisfa certamente i criteri di quello che uno di noi ha precedentemente definito “Big Bang Disruptor”: una nuova tecnologia che, dal momento del rilascio, offre agli utenti un’esperienza migliore e più economica di quelle con cui compete.
Un’adozione così straordinaria è naturalmente motivo di eccitazione e, per le aziende storiche, di allarme. Il potenziale delle LLM sembra illimitato e potrebbe rivoluzionare tutto, dalla ricerca alla generazione di contenuti, dal servizio clienti all’istruzione e così via. A differenza dei Big Bang Disruptor più mirati, ChatGPT e altri LLM sono dei veri e propri distruttori, che rompono le regole di lunga data non solo in un settore, ma in tutti allo stesso tempo.
Considerata la potenziale portata di questa perturbazione e di questioni quali la privacy, i pregiudizi e persino la sicurezza nazionale, è ragionevole che i legislatori ne prendano atto. Si pensi al poema di Goethe “L’apprendista stregone”, animato nel classico film Fantasia della Disney, in cui lo stregone torna al suo laboratorio per scoprire che il suo apprendista ha scatenato forze che sono andate rapidamente fuori controllo, minacciando di distruggere tutto ciò che è in vista finché il mago non ristabilisce l’ordine. Molti di coloro che sono preoccupati per le possibili conseguenze indesiderate dell’IA, tra cui sviluppatori come Altman, guardano ai legislatori per ricoprire il ruolo dello stregone.
L’assalto alla diligenza
Negli Stati Uniti, diversi attori stanno lottando per guidare la regolamentazione dell’IA.
In primo luogo il Congresso, dove il leader della maggioranza del Senato Chuck Schumer chiede una legislazione preventiva per stabilire dei “guardrail” normativi sui prodotti e servizi di IA. I guardrail si concentrano sulla trasparenza per gli utenti, sulle relazioni tra Stati e “sull’allineamento di questi sistemi con i valori americani e sulla garanzia che gli sviluppatori di IA mantengano la loro promessa di creare un mondo migliore”. La vaghezza di questa proposta, tuttavia, non è promettente.
In secondo luogo, c’è l’Amministrazione Biden, dove c’è una certa competizione tra le agenzie federali per implementare un progetto della Casa Bianca per una Carta dei Diritti dell’IA, presentato lo scorso ottobre. Il progetto è altrettanto generico e chiede agli sviluppatori di garantire sistemi “sicuri ed efficaci” che non discriminino o violino le esigenze della privacy e che facciano sapere quando un utente si sta impegnando con un sistema automatizzato e offrano “ripieghi” umani agli utenti che li richiedono – senza, almeno finora, definire nessuno di questi termini chiave.
Presso il Dipartimento del Commercio, la National Telecommunications and Information Administration (NTIA) ha aperto un’indagine sull’utilità di verifiche e certificazioni per i sistemi di intelligenza artificiale. L’agenzia ha richiesto commenti su decine di questioni relative alla responsabilità dei sistemi di IA, tra cui se, quando, come e da chi le nuove applicazioni dovrebbero essere valutate, certificate o sottoposte a revisione, e che tipo di criteri includere in queste revisioni. In questo caso, la specificità dell’indagine sembra andare nella giusta direzione.
Il presidente della Federal Trade Commission, Lina Kahn, ha invece adottato un approccio diverso, sostenendo che la sua agenzia ha già la giurisdizione sugli LLM e agitando le sciabole anticoncorrenziali e di protezione dei consumatori in direzione della nuova tecnologia. Kahn ipotizza che l’IA possa esacerbare i problemi esistenti nel settore tecnologico, tra cui “collusione, pratiche monopolistiche, fusioni, discriminazione dei prezzi e metodi di concorrenza sleale”. L’IA generativa, secondo la presidente della FTC, “rischia di aumentare le frodi” grazie alla sua capacità di creare contenuti falsi, ma convincenti. Inoltre, osserva l’autrice, i LLM potrebbero – intenzionalmente o meno – violare le leggi esistenti in materia di privacy e antidiscriminazione, elaborando risposte alle richieste degli utenti basate su insiemi di dati parziali.
Ci sono poi altri sforzi a livello provinciale: in almeno 17 Stati americani sono già state introdotte leggi sull’IA. Alcune di queste proposte di legge incentiverebbero lo sviluppo locale di prodotti di IA, mentre altre ne limiterebbero l’uso in applicazioni come l’assistenza sanitaria e le assunzioni. Molti Stati hanno già creato o stanno valutando la possibilità di creare proprie task force per raccomandare una legislazione futura.
Finora le proposte sono poco specifiche e i tipi di danni ipotetici dell’IA rientrano in categorie già esistenti, tra cui la disinformazione e l’abuso di copyright e marchi. In ogni caso, è probabile che le autorità di regolamentazione abbiano un impatto limitato sullo sviluppo della tecnologia nel breve periodo. Molti dei regolamenti proposti richiederebbero che il Congresso conferisca alle agenzie pubbliche un’ulteriore autorità legale, cosa che sembra improbabile nell’attuale clima politico. Anche in questo caso, l’applicazione delle nuove norme sarà di competenza dei tribunali, il che si traduce in anni di iter. Inoltre, i Governi hanno storicamente avuto difficoltà ad attrarre il tipo di competenze tecniche necessarie anche solo per definire i tipi di nuovi danni che gli LLM e altre applicazioni di IA possono causare.
Tra le proposte federali, va riconosciuto al Dipartimento del Commercio il merito di aver posto le domande giuste. Ma non è chiaro se il Segretario Gina Raimondo abbia l’autorità legale per creare un processo di certificazione sostenibile, o il peso politico per convincere l’industria tecnologica a sostenere gli sforzi dell’NTIA. Inoltre, come riconosce il Dipartimento, la sua indagine è solo una parte del più ampio sforzo della Casa Bianca per creare un ambiente affidabile per i servizi di IA, un obiettivo che richiederebbe livelli inediti di coordinamento e cooperazione tra numerosi silos governativi.
Queste discussioni si svolgono anche sullo sfondo di cambiamenti monumentali nella legislazione americana che probabilmente determineranno chi alla fine si aggiudicherà il ruolo di principale regolatore dell’IA. Le recenti decisioni della Corte Suprema hanno alterato drasticamente il panorama giuridico del diritto industriale, spostando il potere dalle autorità di regolamentazione federali ai tribunali e agli Stati, aggiungendo ancora più frammentazione, incertezza e ritardo alle azioni di applicazione. La Corte ha dato il via libera alle imprese che sperano di contestare le norme emanate dalle agenzie, ad esempio chiedendo al Congresso istruzioni più specifiche, affidando di fatto ai giudici federali la decisione finale sull’entrata in vigore o meno delle norme adottate. Nel frattempo, naturalmente, la tecnologia continuerà a evolversi al proprio ritmo accelerato.
L’insieme di queste limitazioni suggerisce che è più probabile che una regolamentazione importante venga prima da altri Paesi e non dagli Stati Uniti.
Per quanto riguarda il diritto della concorrenza, e in particolare la sua applicazione alle aziende tecnologiche, lo slancio degli ultimi decenni si è già spostato dagli Stati Uniti all’Europa. Mentre l’UE sta da tempo introducendo sempre nuove legislazioni sostanziali su Internet, il Congresso si attarda, lasciando la FTC e le altre agenzie federali in gran parte prive degli strumenti e delle risorse per competere con le loro controparti europee. Il Parlamento europeo ha recentemente approvato l’AI Act, uno statuto di 100 pagine che prevede il divieto preventivo di applicazioni ritenute con livelli di rischio “inaccettabili”, l’obbligo di ottenere licenze e autorizzazioni preventive prima dell’utilizzo nell’UE e l’imposizione di multe sostanziali agli sviluppatori per una serie di violazioni.
Anche in Cina le autorità di regolamentazione si stanno muovendo rapidamente, sia per incentivare i prodotti e i servizi di intelligenza artificiale prodotti in patria, sia per definire le modalità con cui questi possono o non possono operare. Ciò potrebbe non solo limitare il modo in cui le aziende non cinesi interagiscono con oltre un miliardo di potenziali utenti cinesi, ma potrebbe anche diventare il regime legale de facto per le applicazioni future.
Cosa devono fare le aziende ora
È tutt’altro che chiaro che qualsiasi combinazione di azioni governative – legislative, regolamentari o giudiziarie – possa davvero raggiungere l’obiettivo di massimizzare il valore dell’IA riducendo al minimo i suoi potenziali danni all’economia o alla società in generale. Come per tutte le tecnologie rivoluzionarie, la capacità dei Governi di regolamentare efficacemente gli LLM sarà quasi certamente insufficiente. Non si tratta di una critica ai legislatori e ai regolatori, ma di un effetto collaterale del fatto che la legge avanza in modo incrementale mentre la tecnologia si evolve in modo esponenziale.
Nel frattempo, i leader aziendali e gli accademici dovrebbero prendere spunto dall’iniziativa in corso del Dipartimento del Commercio e iniziare a sviluppare regolatori, audit e processi di certificazione non governativi che identifichino e forniscano incentivi di mercato per l’acquisto di prodotti e servizi di IA etici e affidabili, chiarendo quali applicazioni sono o non sono affidabili.
Esiste naturalmente una lunga storia di organismi di autoregolamentazione di successo (e di insuccesso), che risale al Medioevo e ai “tribunali” dei mercanti che applicavano le norme dei mercati medievali. Oggi, numerosi gruppi, tra cui l’International Standards Organization, sviluppano e certificano la conformità delle aziende a una gamma straordinariamente ampia di standard, best practice e valutazioni. Nell’era dell’informazione, sforzi simili hanno riguardato tutto, dagli standard aziendali per trattare con i regimi autoritari allo sviluppo del software e dei protocolli che costituiscono Internet stesso.
Una certa regolamentazione pubblica è inevitabile. Tuttavia, il modo più promettente per non provocare lo stregone sarebbe in primo luogo quello di evitare di fare troppa confusione.
Blair Levin ha guidato il team che ha prodotto il Piano nazionale per la banda larga della FCC nel 2010. In seguito ha fondato Gig.U, che ha incoraggiato la diffusione di Internet a gigabit nelle città con le principali università di ricerca. Attualmente è Senior Fellow non residente presso la Brookings Institution e Policy Advisor presso New Street Research. Larry Downes è coautore di Pivot to the Future: Discovering Value and Creating Growth in a Disrupted World (PublicAffairs 2019). I suoi libri precedenti includono Big Bang Disruption, The Laws of Disruption e Unleashing the Killer App.
SINTESI
Mentre le aziende e gli enti pubblici si affannano a cercare di capire l’impatto dei nuovi e potenti sistemi di intelligenza artificiale, i Governi di tutto il mondo si adoperano per prendere l’iniziativa in materia di regolamentazione. I leader aziendali dovrebbero concentrarsi su chi probabilmente vincerà questa gara, più che sulle domande su come o addirittura quando l’IA sarà regolamentata. Il fatto che siano il Congresso, la Commissione Europea, la Cina o persino gli Stati o i tribunali ordinari a prendere l’iniziativa determinerà la velocità e la traiettoria della trasformazione dell’IA nell’economia globale, proteggendo potenzialmente alcuni settori o limitando la capacità di tutte le aziende di utilizzare la tecnologia per interagire direttamente con i consumatori.
Leggi Hbr Italia
anche su tablet e computer
Newsletter