IA

Innovazione e regolamentazione tra collaborazione e conflitto

Problemi pratici ed etici di tecnologie d’avanguardia come ChatGPT

Eugenio Zuccarelli

Aprile 2023

Innovazione e regolamentazione tra collaborazione e conflitto

Per la maggior parte degli innovatori, l'innovazione a rotta di collo è spesso l’unica direzione di marcia. Innovazione significa crescita, che porta al progresso e al miglioramento della condizione umana. Soprattutto perché l’innovazione, quella che davvero cambia la situazione, è un qualcosa di effimero e difficile da raggiungere. Infatti, quella che ha product-market fit, come si dice nell’ambito delle start-up, è una chimera che porta, quando le cose vanno bene, a generare un’altra figura mitologica, l’azienda unicorno.

L’innovazione a rotta di collo, però, porta sì a una crescita rapida, ma con il rischio di causare problemi: favorirla senza nessuna regolamentazione di solito comporta grandi scoperte ma anche grandi rischi.

Ne è un esempio la tecnologia CRISPR, estremamente potente e capace di modificare il genoma di un organismo, dando possibilità mai viste prima agli scienziati che la possono utilizzare. Questa, però, è nata in condizioni poco ufficiali, ponendo chiare implicazioni etiche da considerare.

Un altro esempio, ancora più recente, è ChatGPT. Questa tecnologia, che molti (esperti e non) chiamano rivoluzionaria, è una di quelle chimere di cui molti sono alla ricerca. Uno strumento che è talmente utile da raggiungere 100 milioni di utenti in appena due mesi, diventando la prima app a farlo così velocemente. Non si fa fatica a capire come l’impulso, soprattutto degli “addetti ai lavori”, sia di spingere sull’acceleratore per fare sempre di più e testare i limiti di questa applicazione.

Ciò, tuttavia, pone grandi questioni etiche e morali. Uno strumento così potente, dato in mano a criminali, o persone che comunque possono portare a più danni che benefici, sicuramente pone questioni da affrontare. È anche per questo che un grande numero di esperti ha firmato una petizione per fermare lo sviluppo di tecnologie superiori a ChatGPT per i prossimi 6 mesi. La lettera, firmata da figure del calibro di Elon Musk, Steve Wozniak (co-fondatore di Apple), e Yoshua Bengio (una delle massime figure in IA e vincitore del Turing Award, il “Nobel dell’IA”), chiede proprio lo stop allo sviluppo di queste tecnologie.

Nonostante alcuni possano pensare che ci siano delle finalità meno nobili, soprattutto da parte di Elon Musk che sta lavorando a un competitor di OpenAI, è sicuramente importante considerare come la regolamentazione di questi strumenti vada fatta per controllare possibili impatti negativi. ChatGPT, infatti, ha già dimostrato di poter informare gli utenti su come costruire esplosivi, compiere penetration testing, ovvero penetrare in sistemi informatici, e altro. Ci sono vari controlli ora che impediscono all’algoritmo di rispondere a queste domande, ma è già stato dimostrato come ci siano vari modi per aggirare le sue difese e riuscire comunque a ottenere informazioni che portino a impatti negativi.

Regolamentare completamente qualcosa potrebbe sembrare allettante, allora. Non vi è alcun rischio (di fuga o violazione dei dati, pregiudizi, ecc.) o potenziale impatto negativo: questa è stata la decisione presa da paesi come la Cina, l’Iran, la Corea del Nord e ora anche l’Italia.

Con decisioni del genere sicuramente non si generano rischi; tuttavia non si registrano nemmeno progressi.

La recente decisione dell'Italia di bloccare ChatGPT è una di quelle, infatti, facili da implementare ma che andrà a scapito della competitività. Una volontà del genere ha portato l’Italia sotto i riflettori, facendo sembrare al mondo come questo non sia un Paese che punti all’innovazione. Che sia o meno una corretta interpretazione della decisione dell’Italia, va detto che, di solito, decisioni prese senza eccezioni e senza analizzare le situazioni in tutte le complessità, sono la scelta più semplice.

Vietare completamente una tecnologia è, infatti, la via più semplice per uscire da un problema complesso. È molto più difficile, invece, sedersi con esperti di etica, privacy, tecnologia e politica, figure in Italia di alto calibro a livello internazionale, come Luciano Floridi e Francesca Rossi, esperti di etica dell’IA, per capire il giusto compromesso tra limitare e innovare. L’obiettivo dovrebbe infatti essere prendere decisioni che considerano tutti i punti, non solamente la paura, ma anche i benefici per l’Italia, che ha bisogno di tornare a innovare e essere un faro di progresso.

 

Eugenio Zuccarelli è un Data Science Leader basato a New York, dove guida un team di Data Scientist in CVS Health, l’azienda numero uno al mondo nell’ambito della salute e una Fortune 500. Eugenio è stato inserito nella classifica Forbes 30 Under 30, è stato TEDx Speaker e ha studiato tra MIT, Harvard e Imperial College.

Commenta scrivi/Scopri i commenti

Condividi le tue opinioni su Hbr Italia

Caratteri rimanenti: 400

Leggi Hbr Italia
anche su tablet e computer

Newsletter

Lasciaci la tua mail per essere sempre aggiornato sulle novità di HBR Italia