INTELLIGENZA ARTIFICIALE

Perché l’IA impone un nuovo umanesimo organizzativo

Stefano Besana

Settembre 2025

Perché l’IA impone un nuovo umanesimo organizzativo

 

L’Intelligenza Artificiale (IA), che si dipana all’interno delle nostre organizzazioni a velocità esponenziali, non è semplicemente un’evoluzione tecnica, un’innovazione tecnologica, uno strumento che è in grado di migliorare la nostra produttività. Essa è, piuttosto, una frattura culturale, cognitiva, organizzativa, una sfida antropologica di portata storica. Come ha scritto Daniel C. Dennett in tempi non sospetti, arrivati all’evoluzione attuale non ha più senso chiederci se l’IA sia possibile, dobbiamo domandarci cosa stia diventando l’essere umano in sua presenza; qui sta la vera sfida per le organizzazioni di oggi.

L’IA, infatti, non trasforma soltanto il lavoro o i processi decisionali: riplasma le coordinate stesse attraverso cui interpretiamo la realtà, costruiamo significati, abitiamo il mondo. In questo senso, l’IA è un dispositivo cognitivo nel senso simondoniano del termine: non un semplice utensile, ma un mediatore di relazioni e spazi di senso. Ogni tecnologia, dice, infatti, Simondon, è un atto di mediazione simbolica: ridefinisce i modi di essere al mondo, le strutture della percezione e dell’azione.

 Non è un caso, allora, che i Large Language Models (LLM) abbiano effetti così profondi: il linguaggio — da sempre strumento interpretativo della realtà — diventa oggi generativo, sintetico, imitativo. Ciò che viene prodotto da un LLM non si limita a descrivere il mondo: lo costruisce, spesso anche inventando, predicendo in forma oracolare e anticipando. E con esso, ridefinisce anche noi.

 

Oltre la superiorità umana: empatia, giudizio, creatività

Per decenni, con risultati più o meno significativi, abbiamo difeso la centralità umana nel lavoro, nella leadership (gentile, creativa, empatica, agile, al servizio…), nella creatività, nelle attività di ogni giorno, richiamandoci a capacità “uniche”: l’intuizione, l’intelligenza emotiva, l’empatia, il senso morale, il pensiero critico. Trincerandoci dietro a una non “rimpiazzabilità” di tali caratteristiche da parte degli strumenti automatici. Ma è una difesa sempre più fragile. È solo questione di tempo prima che anche queste qualità vengano replicate — o addirittura superate — da sistemi artificiali. L’esperienza di AMIE[1], il sistema medico conversazionale sviluppato da Google, è, in questo senso, emblematica: i pazienti non solo trovano conforto nelle sue risposte, ma lo valutano spesso più empatico dei medici in carne e ossa. L’IA non ci sostituisce solo nei compiti computazionali, quindi: invade anche le sfere simboliche e affettive che pensavamo inimitabili. Continuare a confrontarci sul piano delle prestazioni con le macchine è una battaglia persa, soprattutto se consideriamo che, come sostiene anche Ethan Mollick, l’IA attuale è la peggiore forma che vedremo negli anni a venire. Non dobbiamo cercare di essere più veloci, più precisi, più efficienti, più bravi.  Se lo facciamo siamo destinati a perdere su tutti i fronti, anche su quelli che consideravamo “umani per eccellenza”. Come rimaniamo dunque rilevanti in questo mondo? Come manteniamo distintività e sapere? Come impariamo? Dobbiamo trascendere.

 

Il passaggio necessario: da “in” a “on the loop”

In questo scenario, occorre ripensare radicalmente il ruolo dell’essere umano nei processi governati dall’intelligenza artificiale. Il paradigma tradizionale dello human-in-the-loop — dove l’umano interviene come controllore dentro un processo automatizzato — non è più sufficiente e rischia di essere una coperta di Linus che impedisce di cogliere correttamente, per dirla all’Accoto, i connotati di provocazione dell’IA come strumento che ci “getta” nel mondo. È tempo, dunque, di passare allo human-on-the-loop: una postura di supervisione metacognitiva e strategica, non più operativa e correttiva. L’umano non è l’anello debole che corregge l’errore, ma il soggetto demiurgico che ne definisce senso, limiti, regole e scopi. È una distinzione che va ben oltre i limiti del linguaggio e come metafora ristrutturante cambia il modo che abbiamo di porci nei confronti di una nuova modalità del pensiero e dell’azione. È il passaggio da utente della tecnologia a governatore dei sistemi tecnologici. Da esecutore a regista.

 

La lezione della riflessività e della resistenza cognitiva

Come ha sottolineato Donald Schön nel suo lavoro seminale “il professionista riflessivo”, i lavoratori esperti, di qualunque ambito, non si affidano a routine fisse, ma agiscono in contesti ambigui attraverso la riflessione-in-azione. Questa capacità di adattamento riflessivo è ciò che può renderci ancora rilevanti nel mondo dell’IA. A essa va affiancata, come ci ricorda Olivier Houdé, una competenza essenziale: la resistenza cognitiva. In un’epoca in cui l’output dell’IA appare spesso autorevole e perfetto, è fondamentale esercitare il dubbio, il discernimento, l’analisi critica. Solo così possiamo evitare di diventare validatori passivi delle decisioni delle macchine. Solo così possiamo evitare che l’IA ci trasformi in esecutori automatici dei suoi risultati.

L’IA come prosecuzione dell’umano (e sua radicalizzazione)

L’IA non è un evento isolato: è l’ultima tappa di un cammino millenario. Dal mito di Prometeo ai calcolatori di Pascal, l’essere umano ha sempre esternalizzato le sue funzioni cognitive, costruendo dispositivi per pensare, decidere, ricordare. È attraverso la simulazione – in questo caso dei nostri processi cognitivi, del linguaggio e del pensiero – che impariamo a conoscere e sperimentiamo una consapevolezza più profonda. Come ha scritto anche Arnold Gehlen, siamo “esseri biologicamente incompleti” che sopravvivono attraverso ambienti artificiali. La tecnologia è la nostra seconda pelle. L’IA è oggi la nostra protesi epistemologica e cognitiva più avanzata. Ma ogni tecnologia, ci avverte Simondon, non è solo estensione funzionale: è organizzazione di senso. L’IA non serve solo a fare meglio: cambia cosa facciamo, perché lo facciamo e come lo comprendiamo. È per questo che non possiamo ridurre l’IA a una questione tecnica. È un fatto culturale. È un fatto umano.

Il ruolo cruciale delle organizzazioni (e dell’HR)

In questo contesto, il ruolo delle organizzazioni — e in particolare della funzione HR — diventa centrale in almeno quattro dimensioni chiave:

  • Strategia: l’adozione dell’IA non è un upgrade tecnico, ma una trasformazione culturale. HR deve co-dirigere questa metamorfosi. Non può non essere parte del processo per orientarne il senso verso scopi più elevati dell’umanità e con impatti positivi per le persone.
  • Competenze: servono piani radicali di reskilling. Non basta formare su nuove tecnologie: bisogna coltivare metacognizione, giudizio, etica. È necessario accompagnare le persone nell’evoluzione della literacy evitando rischi importanti di deskilling e gestendo le emozioni – negative e positive – che ogni tecnologia, come strumento non neutrale, porta con sé.
  • Governance: l’IA va regolata, non solo integrata. Servono policy, responsabilità chiare, modelli di accountability definiti. Servono regole e freni per tutelare e includere i più deboli.
  • Cultura: l’IA può generare resistenze, ansie, illusioni. Le emozioni negative possono impedirne un’adozione efficace minando i ritorni di investimento e la capacità competitiva delle aziende che la impiegano. In questo senso HR deve diventare facilitatore della consapevolezza, motore dell’adozione e custode del senso.

 

Verso un nuovo umanesimo organizzativo

L’IA ci costringe dunque a ridefinire cosa significhi essere umani. Non possiamo più fondarci sull’idea di superiorità funzionale. Dobbiamo coltivare un’umanità riflessiva, capace di orientare, interpretare, resistere, custodire il significato. Come ha scritto Antoine de Saint-Exupéry: “la tecnica non allontana l’uomo dalle grandi domande della natura: lo costringe a studiarle più a fondo.”  Il tempo della reazione è finito. È il tempo della riflessione, della progettazione, della responsabilità. Non dobbiamo solo stare nella tecnologia. Dobbiamo stare al di sopra di essa.

 

Stefano Besana è consulente organizzativo sui temi della workforce e digital transformation da oltre 16 anni, autore di diversi volumi e articoli che studiano il rapporto tra tecnologia e umanità. Ha un dottorato in psicologia dell’innovazione, una laurea in scienze della formazione e una in psicologia, con una specializzazione in educazione degli adulti. Il suo sito è: www.stefanobesana.com

[1] https://research.google/blog/amie-a-research-ai-system-for-diagnostic-medical-reasoning-and-conversations/

Commenta scrivi/Scopri i commenti

Condividi le tue opinioni su Hbr Italia

Caratteri rimanenti: 400

Leggi Hbr Italia
anche su tablet e computer

Newsletter

Lasciaci la tua mail per essere sempre aggiornato sulle novità di HBR Italia