GRANDI IDEE
LE DECISIONI INCOERENTI SONO UN ENORME COSTO NASCOSTO PER MOLTE AZIENDE. ECCO COME SUPERARE QUELLO CHE CHIAMIAMO
DANIEL KAHNEMAN, ANDREW M. ROSENFIELD, LINNEA GANDHI E TOM BLASER
Ottobre 2016
In una società globale di servizi finanziari con la quale abbiamo lavorato, un cliente di lunga data inviò per sbaglio la stessa proposta a due uffici diversi. Anche se le persone che analizzarono il file avrebbero dovuto seguire le stesse linee guida, e quindi arrivare a risultati simili, i due uffici restituirono valutazioni molto differenti. Sconcertato, il cliente affidò la commessa a un concorrente. Dal punto di vista della società, dipendenti che operano nello stesso ruolo dovrebbero essere intercambiabili, ma in questo caso chiaramente la realtà fu diversa. Purtroppo, si tratta di un problema comune.
In molte organizzazioni i professionisti vengono assegnati ai vari compiti in modo abbastanza arbitrario: esperti di valutazione nelle agenzie di rating del credito, medici del pronto soccorso, assicuratori, addetti alla concessione di prestiti e altri ancora. Le organizzazioni si aspettano coerenza da parte di questi professionisti: casi identici dovrebbero venir gestiti in modo simile, se non identico. Il problema è che gli esseri umani sono decisori inaffidabili; il loro giudizio viene notevolmente influenzato da fattori irrilevanti, come l'umore del momento, il tempo trascorso dall'ultimo pasto e il tempo atmosferico. Noi chiamiamo questa casuale variabilità di giudizio rumore. È un costo invisibile che grava sul bilancio di molte aziende.
Alcune professioni non sono soggette al rumore. Gli impiegati di una banca o di un ufficio postale svolgono compiti complessi, ma devono seguire regole rigide che limitano il giudizio soggettivo e garantiscono, volutamente, che casi identici vengano trattati in modo identico. Al contrario, le professioni mediche, gli addetti ai prestiti, i project manager, i giudici e i dirigenti si trovano tutti a operare valutazioni individuali. Queste valutazioni vengono orientate dall'esperienza informale e da principi generali anziché da regole rigide. E, se non arrivano esattamente alla stessa decisione di chiunque altro si trovi a svolgere quello stesso compito, la cosa è considerata accettabile: è quello che intendiamo quando diciamo che una decisione è "una questione di giudizio". Un'azienda i cui dipendenti esercitano il loro giudizio non si aspetta di trovarsi di fronte a decisioni che siano del tutto prive di rumore. Ma, spesso, il rumore è molto superiore al livello che i dirigenti sarebbero disposti a considerare accettabile, ed essi ne sono del tutto ignari.
La prevalenza del rumore è stata dimostrata in svariati studi. I ricercatori universitari hanno più volte confermato che i professionisti spesso contraddicono le proprie valutazioni precedenti quando vengono forniti loro gli stessi dati, ma in un'occasione differente. Per esempio, quando ad alcuni sviluppatori di software venne chiesto in due giorni diversi di stimare il tempo di completamento di una determinata attività, le ore delle loro proiezioni differirono del 71%. Quando dei patologi effettuarono due valutazioni sulla gravità di una biopsia, la correlazione tra le loro valutazioni era solo dello 0,61 (a fronte del valore 1, che avrebbe indicato valutazioni identiche), facendo capire come molto spesso si trovassero a fare diagnosi incoerenti. Valutazioni compiute da persone diverse hanno probabilità anche maggiori di divergere. Le ricerche hanno confermato che in molte attività le decisioni degli esperti sono fortemente variabili: valutare azioni, stimare immobili, condannare criminali, valutare performance lavorative, svolgere audit finanziari e altro ancora. La conclusione inevitabile è che, spesso, i professionisti prendono decisioni che deviano in modo significativo da quelle dei loro colleghi, dalle loro stesse decisioni e dalle regole che loro stessi dicono di seguire.
Spesso, il rumore è insidioso: porta anche aziende di successo a perdere quantità considerevoli di denaro senza che se ne rendano conto. Quanto considerevoli? Per avere una stima, abbiamo posto ai dirigenti di una delle organizzazioni che abbiamo studiato la seguente domanda: «Supponete che la valutazione ottimale di un caso sia pari a 100.000 dollari. Quale sarebbe il costo per l'azienda se il professionista al quale è stato affidato il caso facesse una valutazione di 115.000 dollari? Quale il costo se la valutazione fosse di 85.000 dollari?» I costi stimati erano alti. Aggregato nel corso delle valutazioni compiute ogni anno, il costo del rumore venne misurato in miliardi di dollari, una cifra inaccettabile anche per una grande azienda globale. Il valore della riduzione del rumore anche solo di pochi punti percentuali avrebbe potuto essere dell'ordine delle decine di milioni. La cosa interessante è che l'organizzazione, fino a quel momento, aveva del tutto ignorato la questione della coerenza di giudizio.
Si sa da molto tempo che le previsioni e le decisioni generate da semplici algoritmi statistici sono spesso più precise di quelle compiute da esperti, anche quando gli esperti hanno accesso a un numero maggiore di informazioni di quelle immesse nella formula. È meno noto il fatto che il vantaggio fondamentale degli algoritmi è che sono privi di rumore: a differenza degli esseri umani, una formula darà sempre lo stesso risultato quando i dati immessi sono gli stessi. Una coerenza superiore consente anche ad algoritmi semplici e imperfetti di ottenere un'accuratezza maggiore di quella dei professionisti umani. (Naturalmente, ci sono momenti in cui gli algoritmi sarebbero operativamente o politicamente improponibili, come vedremo).
In questo articolo, spiegheremo la differenza tra rumore e bias (errore connesso a pregiudizio, NdR) e vedremo come i dirigenti possono monitorare il livello e l'impatto del rumore nelle loro organizzazioni. Descriviamo poi un metodo economico e poco utilizzato per costruire algoritmi che riducano il rumore e presentiamo alcune procedure che possono favorire la coerenza quando gli algoritmi non sono un'opzione praticabile.
Rumore e bias
Quando le persone considerano gli errori di giudizio e decisionali, probabilmente pensano ai bias sociali, come gli stereotipi sulle minoranze, oppure a quelli cognitivi, come l'eccesso di fiducia e l'ottimismo infondato. La variabilità inutile che chiamiamo rumore è un errore di tipo diverso. Per coglierne la specificità, pensate alla bilancia che avete in bagno. Potremmo dire che la bilancia è "biased" se le letture sono generalmene troppo alte o troppo basse. Se il vostro peso sembra dipendere da dove appoggiate i piedi, la bilancia è "rumorosa". Una bilancia che sottostima in modo coerente il peso reale di esattamente due chili è gravemente biased, ma priva di rumore. Una bilancia che dà due letture diverse quando ci salite sopra due volte è rumorosa. Molti errori di misurazione derivano da una combinazione di bias e rumore. La maggior parte delle bilance economiche da bagno è in qualche modo biased e molto rumorosa.
Per una illustrazione visiva della distinzione, considerate i bersagli nella figura "Come rumore e bias incidono sulla precisione". Mostrano i risultati dell'allenamento al tiro al bersaglio di team di quattro persone in ciascuno dei quali ogni persona spara una volta sola.
Il team A è preciso: i colpi dei compagni di squadra sono sul centro del bersaglio e vicini gli uni agli altri.
Gli altri tre team sono imprecisi, ma in modi diversi:
Il team B è rumoroso: i colpi dei suoi membri sono centrati attorno al centro del bersaglio, ma sparpagliati su una superficie ampia.
Il team C è biased: i colpi hanno tutti mancato il bersaglio, ma sono vicini tra loro.
Il team D è sia rumoroso che biased.
Coma mostra un confronto tra i team A e B, un aumento del rumore incide sempre sulla precisione in assenza di bias. Quando il bias è presente, l'aumento del rumore può in realtà causare un colpo fortunato, come è successo al team D. Naturalmente, nessuna organizzazione si dovrebbe affidare alla fortuna. Il rumore è sempre indesiderabile, a volte persino disastroso.
È senza dubbio utile, per un'organizzazione, comprendere come queste cose incidano sulle decisioni prese dai suoi dipendenti, ma raccogliere questo tipo di informazioni non è semplice. Quando si cerca di misurare questi errori emergono varie questioni. Un problema rilevante è che i risultati delle decisioni spesso possono essere conosciuti – se mai lo sono – in un futuro lontano. Chi si occupa di concedere prestiti, ad esempio, spesso deve aspettare molti anni per vedere qual è l'esito di quelli che ha approvato e non sa quasi mai cosa accade a una persona a cui il prestito è stato rifiutato.
A differenza dei bias, il rumore può essere misurato senza sapere quale potrebbe essere considerata una risposta precisa. Per illustrare questo aspetto, immaginate che i bersagli ai quali le persone avevano mirato venissero cancellati dalla tabella. Non sapreste nulla riguardo alla precisione complessiva dei team, ma di sicuro vi rendereste conto che qualcosa non va nei colpi sparsi dei team B e D: ovunque fosse il centro del bersaglio, non tutti i colpi sarebbero riusciti a avvicinarglisi. Tutto quello che ci serve per misurare il rumore nel giudizio è un semplice esperimento nel quale pochi casi realistici vengono valutati in modo indipendente da un certo numero di professionisti. Anche in questo caso, lo sparpagliamento della valutazione può essere osservato senza conoscere la risposta giusta. Chiamiamo questi esperimenti audit del rumore.
Un audit del rumore
Lo scopo di un audit del rumore non è quello di produrre un report. Lo scopo finale è quello di migliorare la qualità delle decisioni e un audit può avere successo solo se le persone a capo delle varie unità sono disposte ad accettare risultati spiacevoli e a partire da essi per migliorare. Questa adesione iniziale è più facile da ottenere se i dirigenti considerano lo studio una loro creazione. A questo scopo, i casi dovrebbero essere creati da membri del team rispettati e dovrebbero coprire la gamma dei problemi che si incontrano di solito. Per rendere i risultati rilevanti per tutti, ogni membro dell'unità dovrebbe partecipare all'audit. Uno scienziato sociale con esperienza nel condurre esperimenti comportamentali rigorosi dovrebbe supervisionare gli aspetti tecnici dell'audit, ma dovrebbe essere l'unità operativa a gestire l'attività.
Di recente, abbiamo aiutato due organizzazioni che si occupano di servizi finanziari a condurre degli audit del rumore. Le attività e l'expertise dei due gruppi che abbiamo studiato erano molto differenti, ma entrambi richiedevano la valutazione di materiali moderatamente complessi e spesso comportavano decisioni per centinaia di migliaia di dollari. Abbiamo seguito lo stesso protocollo in entrambe le organizzazioni. Prima, abbiamo chiesto ai manager dei team professionali coinvolti di creare alcuni casi realistici da valutare. Per evitare la fuga di informazioni riguardanti l'esperimento, tutta l'attività è stata condotta lo stesso giorno. Ai dipendenti è stato chiesto di passare circa mezza giornata ad analizzare da due a quattro casi. Ciascuno di loro doveva prendere una decisione che implicava una determinata somma di denaro, come nella propria attività quotidiana. Per evitare la creazione di complicità tra i partecipanti, non è stato detto che lo studio riguardava l'affidabilità. In un'organizzazione, ad esempio, si è spiegato che l'obiettivo era quello di capire la modalità di ragionamento professionale delle persone, di aumentare l'utilità dei loro strumenti e di migliorare la comunicazione tra colleghi. All'attività hanno preso parte circa 70 persone dell'organizzazione A e circa 50 dell'organizzazione B.
Per ciascuno dei casi, abbiamo costruito un indice del rumore in grado di rispondere alla seguente domanda: "Di quanto differiscono le valutazioni di due persone prese a caso?". Abbiamo espresso questa quantità sotto forma di percentuale della media delle valutazioni generate. Supponiamo che la valutazione di un caso da parte di due dipendenti sia di 600 e di 1.000 dollari. La media delle loro valutazioni è 800 dollari e la differenza tra esse è pari a 400 dollari, per cui l'indice di rumore in questo caso è del 50%. Abbiamo fatto lo stesso calcolo per tutte le coppie di dipendenti e poi abbiamo calcolato una media complessiva di rumore per ciascun caso.
Dalle interviste pre-audit con i dirigenti in ciascuna delle due organizzazioni, è emerso che gli intervistati si aspettavano un range di scarto tra le decisioni dei propri dipendenti compresa fra il 5 e il 10%, un livello che consideravano accettabile in situazioni in cui era in ballo una "questione di giudizio". I risultati sono stati scioccanti. L'indice di rumore andava dal 34 al 62% per sei casi dell'organizzazione A, con una media complessiva del 48%. Nei quattro casi dell'organizzazione B, l'indice di rumore andava dal 46 al 70%, con una media del 60%. La cosa forse più deludente emersa è stata che l'esperienza lavorativa non sembrava ridurre il rumore. Tra professionisti con cinque o più anni di esperienza nel ruolo, il disallinamento medio è stato del 46% nell'organizzazione A e del 62% nell'organizzazione B.
Nessuno si sarebbe aspettato una cosa del genere. Ma, dato che erano i responsabili dello studio, i dirigenti di entrambe le organizzazioni hanno accettato la conclusione che le valutazioni dei loro professionisti si sono mostrate inaffidabili in una misura non tollerabile. Tutti hanno concordato rapidamente sul fatto che occorreva fare qualcosa per tenere sotto controllo il problema.
Dato che le scoperte erano coerenti con le ricerche precedenti sulla bassa affidabilità del giudizio del professionisti, non ne siamo rimasti sorpresi. Il maggiore cruccio per noi è stato che nessuna delle due organizzazioni aveva mai considerato l'affidabilità un possibile problema.
Il problema del rumore è effettivamente invisibile nel mondo del business: abbiamo osservato che le persone sono molto sorprese quando l'affidabilità del giudizio professionale viene presentata sotto forma di problema. Cosa impedisce alle aziende di rendersi conto che le valutazioni dei loro impiegati sono piene di rumore? La risposta la troviamo in due fenomeni familiari: i professionisti di esperienza tendono ad avere una grande fiducia nella precisione delle proprie valutazioni e tendono anche ad avere una considerazione elevata dell'intelligenza dei colleghi. È evidente come questa combinazione porti in modo inevitabile a una sopravvalutazione della capacità di giudizio.
Quando viene chiesto loro cosa ne direbbero i colleghi, i professionisti si aspettano che il parere espresso degli altri sia molto più vicino al loro di quanto non sia in realtà. Nella stragrande maggioranza dei casi, ovviamente, i professionisti esperti non si preoccupano affatto di ciò che gli altri potrebbero pensare e danno semplicemente per scontato di avere la risposta migliore. Uno dei motivi per cui il problema del rumore è invisibile è che le persone non passano la giornata a immaginare alternative plausibili a ogni giudizio che esprimono.
L'aspettativa che gli altri saranno d'accordo con te a volte è giustificata, soprattutto quando i giudizi sono talmente connessi a un livello di competenza da essere intuitivi. Gli scacchi di alto livello e la guida sono esempi standard di compiti che sono stati portati quasi alla perfezione. I maestri di scacchi che guardano una determinata situazione su una scacchiera valuteranno in modo molto simile lo stato della partita: se, ad esempio, la regina bianca è in pericolo o se la difesa del fianco del re nero è debole. Lo stesso vale per i guidatori. Avere a che fare con il traffico sarebbe incredibilmente pericoloso se non fossimo nelle condizioni di assumere che i guidatori attorno a noi condividono la nostra comprensione delle priorità agli incroci o alle rotonde. Quando c'è un grande livello di competenza, il livello di rumore è basso o nullo.
Una competenza elevata si sviluppa negli scacchi e nella guida attraverso anni di pratica, durante i quali le azioni sono seguite da un feedback che è sia immediato che chiaro. Purtroppo, pochi professionisti operano in un mondo di questo tipo. Nella maggior parte dei ruoli esistenti, le persone imparano a fare valutazioni sentendo manager e colleghi spiegare e criticare, e questa è una fonte di conoscenza molto meno affidabile rispetto all'imparare dai propri errori. Una lunga esperienza in un lavoro spesso aumenta la fiducia delle persone nelle proprie valutazioni, ma in assenza di un feedback rapido, la fiducia non è garanzia di precisione o di consenso.
Per sintetizzare, offriamo questo aforisma: Dove c'è giudizio c'è rumore, e di solito più di quanto ci aspetteremmo. Di regola, crediamo che né i professionisti né i loro manager possano comprendere in modo preciso l'affidabilità dei propri giudizi. L'unico modo per avere una valutazione accurata consiste nel condurre un audit del rumore. E, almeno in alcuni casi, il problema sarà abbastanza grave dal richiedere un intervento.
Diminuire il rumore
La soluzione più radicale per i problemi di rumore consiste nel sostituire il giudizio umano con regole formali – chiamate anche algoritmi – che utilizzano i dati a disposizione su un determinato caso per produrre una previsione o una decisione. Nel corso degli ultimi 60 anni, le persone sono entrate in competizione con gli algoritmi in centinaia di situazioni legate alla precisione di valutazione, in compiti che vanno dalla previsione sull'aspettativa di vita dei malati di cancro a quella sul successo dei laureati. Gli algoritmi sono stati più accurati degli esseri umani in circa la metà degli studi, e negli altri il risultato è stato più o meno di parità. Anche il pareggio dovrebbe contare come vittoria per gli algoritmi, che sono più convenienti in termini di costo.
In molte situazioni, naturalmente, gli algoritmi non sarebbero utilizzabili. L'applicazione di una regola può rivelarsi non praticabile quando gli input sono altamente peculiari o difficili da codificare in un formato coerente. Gli algoritmi si rivelano anche potenzialmente meno utili in valutazioni o decisioni che comportano dimensioni multiple o dipendono dalla negoziazione con un'altra parte. Anche quando una soluzione algoritmica è disponibile in via di principio, le considerazioni organizzative a volte ne rendono poco opportuna l'applicazione. Rimpiazzare le persone con software è un processo doloroso che incontrerà resistenza, a meno che a queste persone non vengano affidati dei compiti più graditi.
Se le condizioni sono quelle giuste, però, sviluppare e implementare algoritmi può essere sorprendentemente facile. L'assunto comune è che gli algoritmi richiedano analisi statistiche di grandi quantità di dati. Per esempio, la maggior parte delle persone con le quali parliamo è convinta che occorrano i dati di migliaia di richieste di prestito e del loro esito per sviluppare un'equazione in grado di predire un'insolvenza su prestiti commerciali. Poche persone sanno che algoritmi adeguati si possono sviluppare anche senza alcun dato relativo all'esito e con un numero di informazioni di input relative a un numero ridotto di casi. Chiamiamo le formule predittive create in assenza di dati "regole motivate", perché si basano su ragionamenti di senso comune.
La costruzione di una regola motivata inizia con la selezione di alcune (forse tra sei e otto) variabili che sono legate in modo incontrovertibile al risultato che viene previsto. Se il risultato è un'insolvenza su un prestito, per esempio, attività e passività verranno di sicuro incluse nella lista. Lo step succcessivo consiste nell'assegnare a queste variabili un peso uguale nella formula di previsione, definendo il loro segno nella direzione più ovvia (positivo per le attività, negativo per le passività). La regola può quindi venire creata attraverso pochi semplici calcoli (per maggiori dettagli si veda il box "Come creare una regola motivata").
Il risultato sorprendente di molte ricerche è che, in molti contesti, le regole motivate sono accurate come i modelli statistici creati con i dati di output. I modelli statistici standard combinano una serie di variabili predittive, alle quali vengono assegnati pesi sulla base della loro relazione con gli esiti previsti e della loro relazione reciproca. In molte situazioni, tuttavia, questi pesi sono sia instabili dal punto di vista statistico sia poco rilevanti dal punto di vista pratico. Una semplice regola che assegna uguale peso alle variabili selezionate ha buone probabilità di essere altrettanto valida. Algoritmi che pesano le variabili allo stesso modo e non si basano sui risultati si sono rivelati validi nella selezione del personale, nelle previsioni elettorali, in quelle relative ai risultati delle partite di football e in altri ambiti di applicazione.
La conclusione è che se intendete utilizzare un algoritmo per ridurre il rumore, non è necessario che attendiate i dati relativi all'esito di un processo. Può essere sufficiente usare il senso comune nel selezionare le variabili e la regola più semplice possibile per combinarle.
Naturalmente, non importa quale tipo di algoritmo si utilizzi: le persone devono mantenere il controllo finale sul processo. Gli algoritmi devono essere monitorati e modificati in funzione di possibili cambiamenti nella popolazione analizzata. I manager devono anche mantenere l'autorità per poter prendere, nelle situazioni più lampanti, decisioni contrarie a quelle suggerite dall'algoritmo. Per esempio, una decisione sull'approvazione di un prestito dovrebbe essere messa in standby in via temporanea se l'azienda scopre che il richiedente è stato arrestato. Cosa ancora più importante, i dirigenti dovrebbero decidere come tradurre l'output degli algoritmi in azioni. L'algoritmo può dirvi quale possibili prestiti si trovino nella fascia del 5% superiore o del 10% inferiore rispetto a tutte le richieste, ma qualcuno deve decidere cosa farsene dell'informazione.
Gli algoritmi, a volte, vengono utilizzati come fonte intermedia di informazioni per i professionisti che si troveranno a prendere la decisione finale. Un esempio è quello rappresentato dal Public Service Assessment, una formula sviluppata dai giudici per decidere se un imputato può essere rilasciato senza rischio in attesa del processo. Nei primi sei mesi di utilizzo in Kentucky, il tasso di criminalità tra gli imputati in attesa di processo è sceso del 15% circa, benché il numero di persone rilasciate fosse in aumento. È ovvio che, in questo caso, i giudici devono mantenere l'autorità finale sulle decisioni: il pubblico rimarrebbe scioccato nel vedere la giustizia amministrata attraverso una formula.
Per quanto possiamo sentirci a disagio all'idea, le ricerche hanno dimostrato che mentre gli esseri umani possono fornire utili input alle formule, gli algoritmi si dimostrano più efficaci nel ruolo del decisore finale. Se evitare gli errori è l'unico criterio preso in considerazione, i manager dovrebbero avere l'accortezza di scavalcare l'algoritmo solo in circostanze eccezionali.
Disciplinare il giudizio
Si dovrebbe prendere in considerazione la possibilità di sostituire le decisioni umane con un algoritmo ogni volta che le valutazioni umane sono rumorose, ma nella maggior parte dei casi questa soluzione sarebbe troppo radicale o semplicemente inattuabile. Una buona alternativa consiste nell'adottare procedure che promuovano la coerenza facendo in modo che persone che occupano gli stessi ruoli utilizzino metodi simili per cercare informazioni, integrarle in una visione complessiva del caso e tradurre la visione in una decisione. Un esame attento di tutto quello che occorre per fare questo va al di là dello scopo di questo articolo, ma possiamo dare qualche consiglio generale, con l'importante considerazione che dare disciplina alle valutazioni non è per niente facile.
La formazione è fondamentale, naturalmente, ma anche professionisti che vengono formati assieme tendono a utilizzare approcci diversi tra loro. Le aziende, a volte, combattono queste forme di personalizzazione organizzando tavole rotonde nelle quali i decisori si incontrano per rivedere i casi. Purtroppo, la maggior parte delle tavole rotonde viene condotta in un modo che rende fin troppo semplice raggiungere un accordo, perché i partecipanti convergono rapidamente sulle opinioni presentate per prime o con maggior forza. Per evitare questo tipo di atteggiamento, i singoli partecipanti dovrebbero studiare il caso in modo indipendente, formarsi delle opinioni che sono pronti a difendere e inviare il proprio parere al leader del gruppo prima dell'incontro. Tavole rotonde condotte in questo modo sarebbero un buon modo per rilevare il livello di rumore, con l'aggiunta di una discussione di gruppo in cui le differenze di vedute possono essere analizzate.
In alternativa o accanto alle tavole rotonde, ai professionisti potrebbero essere offerti strumenti user-friendly, come checklist e domande ben formate, che li possano guidare mentre raccolgono informazioni riguardo un caso, effettuano valutazioni intermedie e formulano una decisione finale. Forme di variabilità indesiderate si verificano in ciascuna di queste fasi e le aziende possono – e dovrebbero – capire quanto queste strumenti riescano a ridurle. Idealmente, le persone che utilizzano tool di questo genere li considereranno come supporti che li mettono nelle condizioni di svolgere il loro lavoro in modo efficace ed economico.
Purtroppo, la nostra esperienza suggerisce che la costruzione di strumenti di valutazione che siano sia efficaci che user-friendly è più difficile di quanto molti dirigenti pensino. Controllare il rumore non è facile, ma ci aspettiamo che un'organizzazione che conduce un audit e valuta il costo del rumore in dollari arrivi alla conclusione che la riduzione della variabilità casuale valga bene lo sforzo necessario.
L'OBIETTIVO PRINCIPALE di questo articolo è quello di far conoscere ai manager il concetto di rumore come origine di determinati errori e spiegare come il rumore sia diverso dal bias. Il termine "bias" è entrato nella coscienza pubblica al punto che spesso i termini "errore" e "bias" vengono utilizzati in modo intercambiabile. In realtà, una migliore qualità decisionale non viene raggiunta semplicemente riducendo i bias generali (come l'ottimismo) o quelli sociali e cognitivi specifici (come la discriminazione delle donne o gli effetti di ancoraggio). I dirigenti che hanno a cuore l'accuratezza dovrebbero anche fare i conti con la prevalenza dell'incoerenza nei giudizi professionali. Il rumore è più difficile da cogliere dei bias, ma non è meno reale o meno costoso.
Daniel Kahneman è Professore Emerito di Psicologia alla Princeton University. Nel 2002, ha vinto il Premio Nobel per l'Economia (con Amos Tversky) per il suo lavoro sui bias cognitivi. Andrew M. Rosenfield è CEO e managing partner di The Greatest Good Group (TGG Group). Linnea Gandhi e Tom Blaser sono managing director in TGG Group.
