UMANI & IA

Perché gli ingegneri dovrebbero studiare filosofia

Marco Argenti

Settembre 2024

Perché gli ingegneri dovrebbero studiare filosofia

Marina113/Getty Images

DI RECENTE HO DETTO A MIA FIGLIA, studentessa universitaria: se vuoi intraprendere una carriera nel campo dell’ingegneria, dovresti concentrarti sullo studio della filosofia oltre che sui corsi di ingegneria tradizionali. Perché? Perché migliorerà la tua capacità di elaborare dei codici.

Detto da un ingegnere, potrebbe sembrare un controsenso, ma la capacità di sviluppare modelli mentali nitidi intorno ai problemi che si vogliono risolvere e di capire il perché prima di iniziare a lavorare sul come è un’abilità sempre più critica, soprattutto nell’era dell’IA.

Codificare è una delle cose che l’IA sa fare meglio. Spesso è in grado di scrivere codici di qualità superiori a quelli umani e le sue capacità stanno rapidamente migliorando. I linguaggi informatici, infatti, utilizzano un vocabolario molto più limitato di quello umano. E poiché la complessità di un modello di IA aumenta al quadrato con l’universo di simboli che rappresentano il linguaggio compreso dall’IA stessa, un vocabolario più piccolo significa risultati migliori e più veloci.

Tuttavia, c’è un problema: il codice creato da un’intelligenza artificiale può essere sintatticamente e semanticamente corretto, ma non funzionalmente. In altre parole, può funzionare bene, ma non fare ciò che si desidera. L’output di un modello è molto sensibile al modo in cui viene scritto un prompt. Se non si centra il bersaglio con il prompt, l’intelligenza artificiale produrrà nel migliore dei casi un codice plausibile, nel peggiore dei casi un codice scorretto e pericoloso.

Nella disciplina emergente chiamata “ingegneria dei prompt“ – a questo punto più un’arte che una scienza – gli utenti imparano a creare a mano dei prompt che siano compatti, espressivi ed efficaci nel far fare all’IA ciò che vogliono. Esistono varie tecniche, come il prompt “a pochi colpi”, che prevede l’aggiunta di una serie di esempi al prompt per guidare l’IA verso la strada giusta, a volte con domande e risposte. Ad esempio, per l’analisi del sentiment utilizzando il “few-shot prompting”, un utente potrebbe inserire una richiesta del tipo “Analizza il sentiment delle frasi in una telefonata sugli utili” seguita da esempi specifici come “Prospettive migliorate: positivo” o “Rallentamento della domanda: negativo”, per aiutare l’intelligenza artificiale a comprendere il modello e il contesto per generare analisi del sentiment accurate basate su esempi.

Una delle abilità più importanti che ho imparato in decenni di gestione di team di ingegneri è quella di porre le domande giuste. Non è diverso nel caso dell’intelligenza artificiale: la qualità dell’output di un modello linguistico di grandi dimensioni (LLM) è molto sensibile alla qualità della domanda. Domande ambigue o non ben formulate indurranno l’IA a cercare di indovinare la domanda che si sta realmente ponendo, aumentando così la probabilità di ottenere una risposta imprecisa o addirittura totalmente inventata (un fenomeno che viene spesso definito “allucinazione”). Per questo motivo, per ottenere il massimo dall’IA si dovrebbe innanzitutto padroneggiare il ragionamento, la logica e i principi primi, tutte abilità fondamentali sviluppate attraverso la formazione filosofica. La domanda “Sai programmare?” diventerà “Puoi ottenere il miglior codice dalla tua IA ponendo la domanda giusta?”.

Allargando il discorso, la dipendenza delle prestazioni dell’IA dalla qualità dei modelli mentali espressi dall’utente che la sollecita suggerisce un cambiamento fondamentale nel rapporto tra autori e lettori e, in generale, nel nostro rapporto con la conoscenza. In un certo senso, offre un parallelo con l’invenzione della stampa, che ha democratizzato l’informazione attraverso la produzione di massa di libri e la creazione di biblioteche e università. Prima della stampa, se si voleva imparare qualcosa sulla matematica, ad esempio, era necessario avere accesso fisico a un matematico o a un testo copiato a mano, probabilmente acquistato a caro prezzo. I libri stampati hanno reso questa barriera molto più bassa e Internet l’ha ridotta praticamente a zero. Tuttavia, è rimasta una barriera: il divario di conoscenza tra l’autore e il lettore. Si può avere accesso a qualsiasi carta o libro del mondo, ma sono poco utili se non si riesce a capirli.

Lavorando con l’intelligenza artificiale, questo rapporto cambia, così come la nozione di autore. Un LLM adatta il suo contenuto al livello di conoscenza e comprensione del lettore, prendendo spunto dalle sue richieste. Il suggerimento del lettore è il seme che innesca nell’IA la produzione di contenuti, attingendo alle opere presenti nei suoi dati di addestramento per creare un nuovo testo specifico per quell’utente – il lettore è, in un certo senso, sia consumatore che autore. Riprendendo l’esempio della matematica, se si volesse comprendere il concetto di limite nel calcolo, si potrebbe trovare un libro di testo destinato agli studenti delle scuole superiori o dell’università o tentare di trovare su Internet una fonte che corrisponda al proprio livello di comprensione attuale. Un modello di intelligenza artificiale, invece, può fornire istruzioni personalizzate e adattive, proporzionate al livello di comprensione e allo stile di apprendimento dell’utente. In futuro, il gold standard dell’apprendimento – il tutoraggio personalizzato – potrebbe essere disponibile per tutti. Le conseguenze sono inimmaginabili.

L’intelligenza artificiale generativa cambia il nostro rapporto con la conoscenza, appiattendo le barriere che non solo permettono di accedervi, ma anche di spiegarla con un approccio personalizzato. Crea una leggera pendenza tra il vostro livello di conoscenza e il livello di conoscenza necessario per affrontare un determinato argomento. Ma la capacità di accedere a conoscenze adeguatamente personalizzate e, soprattutto, accurate, inizia e finisce con l’utente. Man mano che la conoscenza diventa più facile da ottenere, il ragionamento diventa sempre più importante. L’uso di queste capacità di ragionamento filosofico non si esaurisce una volta ottenuto il risultato che si pensa di aver cercato: il lavoro non è ancora finito. Come sappiamo, le IA possono commettere errori e sono particolarmente brave a far sembrare plausibili i risultati errati, rendendo la capacità di discernere la verità un’altra abilità estremamente importante. Per poter interagire con la tecnologia in modo responsabile, in modo da ottenere le informazioni appropriate e accurate che desideriamo, dobbiamo avere una mentalità filosofica e una sana dose di scetticismo e buon senso durante l’intero percorso.

C’è stato un tempo in cui, per creare un programma per computer, dovevo fisicamente premere degli interruttori o bucare una scheda di carta. Quel processo di creazione si trovava al livello della complessità del numero di bit di memoria o di registri che il computer possedeva. Con miliardi di transistor e trilioni di celle di memoria, il nostro processo di creazione del software è dovuto salire a livelli sempre più alti con la creazione di linguaggi informatici che astraessero la complessità dell’hardware sottostante, consentendo agli sviluppatori di concentrarsi quasi esclusivamente sulla qualità dell’algoritmo rispetto agli uni e agli zeri.

Oggi siamo a un punto in cui i computer (cioè l’intelligenza artificiale) non hanno bisogno di questo livello intermedio di traduzione tra la lingua che parliamo e quella che capiscono. Possiamo mettere da parte la Stele di Rosetta e parlare semplicemente nella nostra lingua a un computer. È probabile che capisca altrettanto bene di quando gli parliamo in Python. Questo ci pone di fronte a due scelte: possiamo diventare pigri o elevare il nostro pensiero.

Quando la lingua non è più una barriera, possiamo utilizzare tutta l’espressività del linguaggio umano per trasmettere all’intelligenza artificiale concetti e logiche più elevati, che catturino la nostra richiesta nel modo più compatto ed efficace, in modo dichiarativo (incentrato sul risultato che vogliamo ottenere) e non imperativo (incentrato sui passaggi per raggiungerlo). Imperativo: gira a sinistra, poi vai dritto, poi ancora a sinistra, poi (1.000 volte). Dichiarativo: portami a casa. Ho visto persone sui social media creare interi giochi con pochi suggerimenti scritti con abilità che in un passato molto recente avrebbero richiesto mesi di lavoro.

Il che mi riporta al punto iniziale: avere un modello mentale nitido intorno a un problema, essere in grado di scomporlo in fasi tracciate, ragionare perfettamente sui principi primi, a volte essere preparati (e in grado di) a discutere con un’intelligenza artificiale ostinata: queste sono le capacità che faranno di un ingegnere un grande ingegnere in futuro, e probabilmente la stessa considerazione vale per molte categorie di lavoro.

Non vogliamo perdere la capacità di aprire la scatola quando necessario e correggere le cose che l’IA potrebbe aver tralasciato o essere nella posizione (importante) di verificare ciò che l’IA ha creato. Sarebbe un vero problema per gli esseri umani e non permetteremo che ciò accada: dobbiamo ancora costruire le IA, come minimo. Tuttavia, questo ci porterebbe avanti solo fino a un certo punto. Automatizzare i meccanismi di creazione del codice e concentrarci sulle nostre capacità di pensiero critico è ciò che ci permetterà di creare di più, più velocemente e con un impatto più che proporzionale sul mondo. Aiutando l’IA ad aiutarci a essere più umani e meno computer.

 

Marco Argenti è Chief Information Officer di Goldman Sachs.

Commenta scrivi/Scopri i commenti

Condividi le tue opinioni su Hbr Italia

Caratteri rimanenti: 400