Nella vita quotidiana, prendiamo molte decisioni, alcune di rilievo, altre apparentemente insignificanti. Ci sentiamo molto intelligenti e razionali. Ma lo siamo veramente? Le emozioni in realtà ci influenzano più di quanto vorremmo ammettere.

Daniel Kahneman, Nobel per l’Economia nel 2002, accende una nuova luce sulla presunta razionalità delle nostre decisioni con il suo volume "Pensieri lenti e veloci" (2011), che rappresenta una pietra miliare nello studio del comportamento umano e di come la mente elabora le informazioni e ci porta a compiere scelte e azioni.
Kahneman sostiene che, anche se non ne siamo consapevoli, sono attivi nel nostro cervello due sistemi distinti: il Sistema 1, il nostro pensiero veloce, automatico, influenzato dalle emozioni, e il Sistema 2, lento, riflessivo, logico-razionale.
Il l Sistema 1 opera automaticamente e rapidamente, senza sforzo. È responsabile delle intuizioni immediate e delle reazioni istintive. E’ utile per affrontare situazioni improvvise di pericolo e per prendere decisioni rapide, ma può essere soggetto a bias cognitivi. Come quando compriamo qualcosa solo perché sembra allettante sul momento, senza pensare se ci serve oppure no.

Il Sistema 2, al contrario, richiede un impegno di concentrazione. Lo utilizziamo con intenzione e spesso con fatica, per attività che richiedono di risolvere problemi complessi, fare scelte ponderate. Lento e impegnativo, il Sistema 2 non è sempre attivo, soprattutto quando ci affidiamo troppo al Sistema 1 per gestire le situazioni quotidiane. 
Il nostro cervello tende non far fatica, quando può. Per questo amiamo la routine, perché innestiamo il pilota automatico, il più rapido e gratificante pensiero veloce e non prendiamo decisioni “razionali”.

“10 Bucce di banana della mente”: I Bias cognitivi e le illusioni di razionalità.

Secondo Kahneman, la nostra mente rischia di scivolare su alcune bucce di banana, deviazioni sistematiche dal pensiero logico e razionale:

  1. Bias di conferma: tendiamo a cercare e interpretare le informazioni in modo da confermare le nostre convinzioni preesistenti, ignorando o sminuendo le informazioni contrarie.

E’ tipico in alcuni ambiti:

  • Discussioni Politiche: immagina una persona che sostiene un partito politico. Quando legge le notizie, tende a cercare fonti che confermano la sua visione e ignora quelle che la contraddicono. Ad esempio, legge solo giornali o siti web che sono favorevoli a quel partito e ignora quelli che offrono critiche, rafforzando così la propria convinzione senza esaminare altre prospettive.
  • Investimenti Finanziari: un investitore che crede fortemente nel potenziale di crescita di valore di una specifica azienda cercherà articoli e rapporti che confermano le sue aspettative positive, evitando quelli che potrebbero evidenziarne i rischi. Questo può portare a decisioni di investimento sbilanciate o sbagliate.
  • Salute e Medicina: chi crede nell’omeopatia cercherà testimonianze e studi che confermano la sua efficacia, ignorando le ricerche scientifiche che ne dimostrano l'inefficacia o la mancanza di effetti scientificamente provati.
  1. Bias di ancoraggio

L'ancoraggio è un bias cognitivo in cui le persone si affidano troppo alla prima informazione ricevuta (l'àncora) per prendere le decisioni successive.

  • Trattative Commerciali: durante la trattativa per l'acquisto di un'auto usata, il venditore potrebbe iniziare con un prezzo molto alto (l'àncora). Quando poi il prezzo viene ribassato, la cifra finale sarà probabilmente più alta di quanto sarebbe stata se il prezzo iniziale fosse stato inferiore.
  • Vendite e Sconti: nei negozi, i prodotti spesso vengono mostrati con un prezzo originale barrato e un prezzo scontato. L'àncora del prezzo originale fa sembrare il prezzo scontato molto più conveniente, anche se potrebbe restare alto rispetto al valore reale del prodotto.
  • Stime di Valore: quando chiediamo a qualcuno di stimare la popolazione di una città, fornire prima una cifra come riferimento (ad esempio, "Pensi che ci siano più o meno di 500.000 abitanti?") influenzerà la risposta. Se l'àncora è alta, la stima sarà generalmente più alta, e viceversa.
  1. Euristica della Disponibilità

Si verifica quando valutiamo la probabilità di eventi basandoci su quanto facilmente altri esempi simili ci vengono alla mente.

  • Paura di Volare: dopo aver visto notizie su un incidente aereo, possiamo sopravvalutare la probabilità di un incidente simile quando prendiamo un aereo, nonostante le statistiche dimostrino che volare è molto più sicuro rispetto a viaggiare con l’auto. Questo avviene perché l'immagine dell'incidente è fresca e disponibile nella nostra mente.
  • Valutazione del Crimine: se in una città vengono riportati spesso crimini violenti nei notiziari, gli abitanti potrebbero percepire un aumento della criminalità, anche se i dati statistici non mostrano un effettivo incremento. La disponibilità di immagini recenti e vivide di crimini influenzerà la loro percezione di sicurezza.
  • Decisioni Sanitarie: una persona che conosce qualcuno che ha avuto una reazione avversa a un vaccino può sovrastimare la probabilità di effetti collaterali gravi, nonostante le evidenze scientifiche dimostrino che tali eventi sono estremamente rari.
  1. Eccesso di fiducia: sopravvalutiamo le nostre capacità, pensiamo di poter gestire un compito complesso senza chiedere aiuto, solo perché troppo sicuri delle nostre abilità. Anche noto come “Effetto IKEA”: hai comprato un mobile Ikea a prezzo vantaggioso, e poi hai passato ore a montarlo, finendo per perdere l’intero week end e un pezzo di autostima.
  1. Anestesia psicologica: Kahneman sostiene che siamo insensibili alle variazioni nel nostro ambiente, se sono piccole. Se invece sono abbastanza grandi da catturare l'attenzione del nostro pensiero veloce, allora le prendiamo in esame. Ma questo può portarci a ignorare segnali importanti, come il cambiamento in una relazione sentimentale, se procede a piccoli passi.
  1. L'illusione della scelta: al supermercato, di fronte a una miriade di opzioni di marmellata, ci sentiamo indecisi. Quando le disponibilità di prodotto si riducono a due diventa più facile scegliere. Salvo pensare che avremmo preferito avere più opzioni.
  2. La trappola del presente: "Domani comincio la dieta", diciamo a noi stessi, mentre affondiamo nel divano con una vaschetta di gelato. Tendiamo a dare più peso alle gratificazioni immediate rispetto a quelle a lungo termine. È il motivo per cui procrastiniamo scelte o attività importanti ma difficili.
  3. La tentazione dell'opzione premium: Anche se non usiamo tutte le funzionalità di un abbonamento premium, ne siamo attratti perché ci fa sentire come se stessimo ottenendo il meglio. È come ordinare una pizza extra anche se siamo soli, perché "ne vale la pena".
  4. La paura della perdita: La prospettiva di perdere qualcosa spesso ci spinge a prendere decisioni irrazionali. Ad esempio, potremmo tenere nell’armadio un abito che non indossiamo mai solo perché abbiamo speso molto per comprarlo, anche se sarebbe più sensato liberarcene e risparmiare spazio per i vestiti che indossiamo.
  5. La sindrome del FOMO ( Fear Of Missing Out): La paura di perdere un'opportunità ci spinge a prendere decisioni irrazionali, come partecipare a un evento che non ci interessa granchè, solo perché gli amici ne sembrano entusiasti.

    Fonte: black-friday.global (2021)

 Discussioni, critiche, sviluppi ulteriori.

"Pensieri lenti e veloci" di Daniel Kahneman è un'opera fondamentale che ha rivoluzionato la nostra comprensione del comportamento e ha arricchito il campo della psicologia e dell'economia comportamentale.
I due sistemi del pensiero e i bias cognitivi ci offrono una nuova prospettiva su come prendiamo decisioni e come possiamo migliorare il nostro modo di farlo: la mente umana è straordinaria, ma anche vulnerabile a errori prevedibili.
Il grande impatto del lavoro di Kahneman ha prodotto inevitabilmente discussioni e critiche.
Alcuni studiosi hanno eccepito, sviluppando metodi e approcci differenti o integrativi:

Gerd Gigerenzer: rinomato psicologo tedesco, ha criticato l'approccio di Kahneman ai bias cognitivi.
Gigerenzer sostiene che alcuni bias che Kahneman descrive come fonte di errore sono, in realtà, adattamenti efficaci del cervello che funzionano bene nella vita reale e conducono a decisioni efficienti in contesti complessi e incerti.

Vernon L. Smith: economista, che ha ricevuto il Premio Nobel per l'Economia nel 2002 insieme a Kahneman, ha sviluppato varie ricerche di economia sperimentale. Sebbene non sia un critico diretto di Kahneman, Smith ha messo in luce come i mercati e le istituzioni possono influenzare il comportamento degli individui, anche contrastando le tendenze di bias.

Gary Becker: economista di scuola neoclassica, ha enfatizzato l'importanza delle scelte razionali e del modello dell'homo economicus. Ha studiato una vasta gamma di comportamenti umani, dall'istruzione alla criminalità, esaminati attraverso il prisma della razionalità economica. Questo approccio è in contrasto con le teorie di Kahneman che sottolineano che i bias sono deviazioni sistematiche dalla razionalità.

Richard Thaler: collaboratore di Kahneman e co-fondatore dell'economia comportamentale, ha sviluppato idee che ampliano e, in alcuni casi, modificano quelle di Kahneman. Ad esempio, Thaler ha introdotto  il "Nudge" il nostro ruolo come “architetti delle scelte”: piccole modifiche nel contesto decisionale possono influenzare significativamente il comportamento umano, una visione che arricchisce ma anche differisce in alcuni aspetti  dalle conclusioni cui giunge Kahneman.

David Laibson: economista comportamentale, ha integrato concetti di psicologia con modelli economici, concentrandosi sui tempi in cui le persone fanno scelte che implicano costi e benefici. Sebbene non sia un critico diretto di Kahneman, Laibson ha offerto modelli alternativi che tengono conto delle preferenze temporali e dell'autocontrollo, ampliando il quadro dell'economia comportamentale oltre le intuizioni di Kahneman.

Tutti noi compiamo costantemente decisioni,  di agire o di non agire.

Abbiamo ora una prossima scadenza, le elezioni europee.
In questa circostanza, “le bucce di banana” della nostra mente potrebbero portarci come elettori a prendere decisioni irrazionali, a fare scelte che non riflettono realmente le nostre convinzioni, sulla base delle emozioni del momento:

1. Votare un candidato “per cambiare”, senza conoscere bene le sue posizioni: ci affidiamo alla facciata di un candidato o alle sue promesse superficiali, credendo di promuovere un cambiamento, senza fare una ricerca più approfondita sulle sue effettive posizioni politiche.
2. Votare un partito solo perché è in ascesa nei sondaggi, ci lasciamo pressare da campagne di "ultima chance" e seguiamo la maggioranza, anche senza una vera convinzione.
3. Votare qualcuno solo perché è famoso o carismatico, senza valutare razionalmente le sue proposte politiche.
4. Non votare affatto: decidere di non votare, perché scoraggiati o disillusi dalla politica.

Conoscere le potenziali “bucce di banana” della nostra mente è utile per coltivare la consapevolezza di come assumiamo le decisioni, aprendo la strada a un futuro in cui le nostre scelte siano guidate dalla saggezza di una riflessione piuttosto che dal lampo di una illusione e dalla irrazionalità.
Disinformazione, manipolazione delle informazioni, e la nostra stessa fatica a tenere salde le redini del cervello sono i nemici da sconfiggere. Razionalmente.

La frase di oggi:

“La politica è troppo importante per essere lasciata solo ai politici.” Charles De Gaulle.

Consigliati per te: