Sommario:

Non vedrò finché non credo: come imparare a cambiare punto di vista?
Non vedrò finché non credo: come imparare a cambiare punto di vista?

Video: Non vedrò finché non credo: come imparare a cambiare punto di vista?

Video: Non vedrò finché non credo: come imparare a cambiare punto di vista?
Video: LA COSCIENZA NEL RAPPORTO MENTE-CORPO (integrale) 2024, Maggio
Anonim

Distorciamo costantemente la realtà a nostro favore, molto raramente ce ne accorgiamo e ancor meno spesso ammettiamo di aver sbagliato. Queste debolezze del pensiero umano permettono alla propaganda e alla pubblicità di funzionare, e su di esse si basa la manipolazione dell'opinione pubblica nei social network. Siamo particolarmente incapaci di ragionare su cose relative alle nostre convinzioni e alla nostra fede. Come "catturarsi" su un errore?

“Una volta accettata una credenza, la mente umana comincia ad attrarre tutto per rafforzarla e confermarla. Anche se questa credenza confuta più esempi di quanti ne confermi, l'intelletto o li trascura o li considera trascurabili , scriveva il filosofo inglese Francis Bacon. Chiunque abbia partecipato a discussioni su Internet sa perfettamente cosa intendeva.

Gli psicologi cercano da tempo di spiegare perché siamo così riluttanti a cambiare il nostro punto di vista. La congettura di Bacon, avanzata quasi quattrocento anni fa, è ora supportata da centinaia di studi scientifici. E meglio comprendiamo le nostre distorsioni mentali, più è probabile che impariamo a resistervi.

Non vedrò finché non credo

I limiti dell'irrazionalità umana possono essere solo indovinati. Qualsiasi studente di psicologia può utilizzare un paio di semplici test per dimostrare che sei prevenuto e prevenuto. E non stiamo parlando di ideologie e pregiudizi, ma dei meccanismi più basilari del nostro pensiero.

Nel 2018, gli scienziati del Centro universitario di Amburgo-Eppendorf hanno mostrato ai partecipanti all'esperimento diversi video. I partecipanti dovevano determinare in quale direzione si stavano muovendo i punti bianchi sullo schermo nero. Poiché molti dei punti si muovevano in modo irregolare, non era così facile farlo.

Gli scienziati hanno notato che dopo aver preso la prima decisione, i partecipanti hanno aderito inconsciamente ad essa in futuro. "Le nostre decisioni diventano un incentivo a prendere in considerazione solo le informazioni che sono in accordo con loro", concludono i ricercatori

Questo è un ben noto bias cognitivo chiamato bias di conferma. Troviamo dati che supportano il nostro punto di vista e ignoriamo tutto ciò che lo contraddice. In psicologia, questo effetto è documentato in modo colorito in una varietà di materiali.

Nel 1979, agli studenti dell'Università del Texas è stato chiesto di studiare due articoli accademici sulla pena di morte. Uno di loro ha sostenuto che la pena di morte aiuta a ridurre la criminalità, e il secondo ha confutato questa affermazione. Prima di iniziare l'esperimento, ai partecipanti è stato chiesto come si sentivano riguardo alla pena di morte, e poi è stato chiesto loro di valutare la credibilità di ogni studio.

Invece di prendere in considerazione gli argomenti delle parti opposte, i partecipanti hanno solo rafforzato la loro opinione iniziale. Coloro che hanno sostenuto la pena di morte sono diventati ardenti sostenitori e coloro che si sono opposti ad essa sono diventati oppositori ancora più ardenti

In un classico esperimento del 1975, agli studenti della Stanford University sono state mostrate un paio di biglietti d'addio ciascuno. Uno di questi era fittizio e l'altro è stato scritto da un vero suicida. Gli studenti dovevano dire la differenza tra una nota vera e una falsa.

Alcuni dei partecipanti si sono rivelati eccellenti detective: hanno affrontato con successo 24 coppie su 25. Altri hanno mostrato completa disperazione e hanno identificato correttamente solo dieci note. In effetti, gli scienziati hanno ingannato i partecipanti: entrambi i gruppi hanno completato il compito più o meno allo stesso modo.

Nella seconda fase, ai partecipanti è stato detto che i risultati erano fasulli e gli è stato chiesto di valutare quante note hanno effettivamente identificato correttamente. È qui che è iniziato il divertimento. Gli studenti del gruppo "buoni risultati" si sentivano sicuri di aver svolto bene il compito, molto meglio dello studente medio. Gli studenti con "punteggi scarsi" hanno continuato a credere di aver fallito miseramente.

Come notano i ricercatori, "una volta formate, le impressioni rimangono notevolmente stabili". Ci rifiutiamo di cambiare il nostro punto di vista, anche quando si scopre che non c'è assolutamente alcuna base dietro.

La realtà è spiacevole

Le persone fanno un pessimo lavoro nel neutralizzare i fatti e nel valutare le argomentazioni. Anche i giudizi più razionali, infatti, nascono sotto l'influenza di desideri, bisogni e preferenze inconsci. I ricercatori chiamano questo "pensiero motivato". Facciamo del nostro meglio per evitare la dissonanza cognitiva, il conflitto tra opinioni consolidate e nuove informazioni.

A metà degli anni '50, lo psicologo americano Leon Festinger studiò una piccola setta i cui membri credevano nell'imminente fine del mondo. La data dell'apocalisse era prevista in un giorno specifico: il 21 dicembre 1954. Sfortunatamente, l'apocalisse non arrivò mai quel giorno. Alcuni iniziarono a dubitare della verità della predizione, ma presto ricevettero un messaggio da Dio, che diceva: il tuo gruppo ha irradiato così tanta fede e bontà che hai salvato il mondo dalla distruzione.

Dopo questo evento, il comportamento dei membri della setta è cambiato radicalmente. Se prima non cercavano di attirare l'attenzione degli estranei, ora hanno iniziato a diffondere attivamente la loro fede. Secondo Festinger, il proselitismo è diventato per loro un modo per rimuovere la dissonanza cognitiva. Questa è stata una decisione inconscia, ma a suo modo logica: dopotutto, più le persone possono condividere le nostre convinzioni, più dimostra che abbiamo ragione.

Quando vediamo informazioni coerenti con le nostre convinzioni, proviamo genuina soddisfazione. Quando vediamo informazioni contrarie alle nostre convinzioni, le percepiamo come una minaccia. I meccanismi di difesa fisiologica sono attivati, la capacità di pensiero razionale è soppressa

È spiacevole. Siamo anche disposti a pagare per non confrontarci con opinioni che non rientrano nel nostro sistema di credenze.

Nel 2017, gli scienziati dell'Università di Winnipeg hanno chiesto a 200 americani cosa pensassero del matrimonio tra persone dello stesso sesso. A coloro che hanno apprezzato questa idea è stato offerto il seguente accordo: rispondi a 8 argomenti contro il matrimonio omosessuale e ottieni 10 dollari, oppure rispondi a 8 argomenti a sostegno del matrimonio omosessuale, ma ottieni solo 7 dollari per questo. Agli oppositori del matrimonio tra persone dello stesso sesso è stato offerto lo stesso accordo, solo a condizioni opposte.

In entrambi i gruppi, quasi i due terzi dei partecipanti hanno accettato di ricevere meno soldi per non affrontare la posizione opposta. A quanto pare, tre dollari non bastano ancora per superare una profonda riluttanza ad ascoltare chi non è d'accordo con noi.

Naturalmente, non sempre ci comportiamo così testardi. A volte siamo pronti a cambiare idea in modo rapido e indolore su un problema, ma solo se lo trattiamo con un grado sufficiente di indifferenza

In un esperimento del 2016, gli scienziati della University of Southern California hanno offerto ai partecipanti diverse affermazioni neutre, ad esempio "Thomas Edison ha inventato la lampadina". Quasi tutti erano d'accordo con questo, riferendosi alle conoscenze scolastiche. Quindi sono state presentate prove che contraddicevano la prima affermazione - ad esempio, che c'erano altri inventori dell'illuminazione elettrica prima di Edison (questi fatti erano falsi). Di fronte a nuove informazioni, quasi tutti hanno cambiato la loro opinione originale.

Nella seconda parte dell'esperimento, i ricercatori hanno offerto ai partecipanti dichiarazioni politiche: ad esempio, "Gli Stati Uniti dovrebbero limitare le proprie spese militari". Questa volta, la loro reazione è stata completamente diversa: i partecipanti hanno rafforzato le loro convinzioni originali piuttosto che metterle in discussione.

“Nella parte politica dello studio, abbiamo visto molta attività nell'amigdala e nella corteccia delle isole. Queste sono le parti del cervello che sono fortemente associate alle emozioni, ai sentimenti e all'ego. L'identità è un concetto deliberatamente politico, quindi, quando sembra alle persone che la loro identità venga attaccata o messa in discussione, si smarriscono , riassumono i ricercatori.

Le opinioni che sono diventate parte del nostro "io" sono molto difficili da cambiare o confutare. Tutto ciò che li contraddice, lo ignoriamo o neghiamo. La negazione è un meccanismo di difesa psicologico di base in situazioni stressanti e ansiose che mettono in discussione la nostra identità. È un meccanismo piuttosto semplice: Freud l'ha attribuito ai bambini. Ma a volte fa miracoli.

Nel 1974, il tenente minore dell'esercito giapponese Hiroo Onoda si arrese alle autorità filippine. Si nascose nella giungla sull'isola di Lubang per quasi 30 anni, rifiutandosi di credere che la seconda guerra mondiale fosse finita e che i giapponesi fossero stati sconfitti. Credeva di condurre una guerriglia dietro le linee nemiche, sebbene in realtà combattesse solo con la polizia filippina e i contadini locali.

Hiroo ha sentito messaggi alla radio sulla resa del governo giapponese, le Olimpiadi di Tokyo e un miracolo economico, ma considerava tutto propaganda nemica. Ha ammesso il suo errore solo quando è arrivata sull'isola una delegazione guidata dall'ex comandante, che 30 anni fa gli ha dato l'ordine “di non arrendersi e di non suicidarsi”. Dopo che l'ordine è stato annullato, Hiroo è tornato in Giappone, dove è stato accolto quasi come un eroe nazionale.

Dare alle persone informazioni che contraddicono le loro convinzioni, specialmente quelle emotivamente cariche, è piuttosto inefficace. Gli anti-vaccini credono che i vaccini causino l'autismo, non solo perché non sono istruiti. La convinzione di conoscere la causa della malattia dà una parte considerevole di conforto psicologico: se le avide multinazionali farmaceutiche sono responsabili di tutto, allora almeno è chiaro con chi arrabbiarsi. Le prove scientifiche non offrono tali risposte

Ciò non significa, ovviamente, che dobbiamo giustificare pregiudizi infondati e pericolosi. Ma i metodi che usiamo per combatterli spesso producono risultati opposti.

Se i fatti non aiutano, cosa può aiutare?

Come persuadere senza fatti

In The Riddle of the Mind, gli psicologi cognitivi Hugo Mercier e Dan Sperber hanno tentato di rispondere alla domanda su quale sia la causa della nostra irrazionalità. Secondo loro, il compito principale che la nostra mente ha imparato a risolvere nel corso dell'evoluzione è la vita in un gruppo sociale. Avevamo bisogno di una ragione non per cercare la verità, ma per non perdere la faccia di fronte ai nostri compagni di tribù. Siamo più interessati all'opinione del gruppo a cui apparteniamo, piuttosto che alla conoscenza oggettiva.

Se una persona sente che qualcosa sta minacciando la sua personalità, raramente è in grado di prendere in considerazione il punto di vista di qualcun altro. Questo è uno dei motivi per cui le discussioni con gli oppositori politici sono generalmente inutili

"Le persone che stanno cercando di dimostrare qualcosa non possono apprezzare gli argomenti di un'altra persona, perché li considerano un attacco anticipato contro la loro immagine del mondo", affermano i ricercatori.

Ma anche se siamo biologicamente programmati per essere conformisti dalla mentalità ristretta, ciò non significa che siamo condannati.

"Le persone potrebbero non voler cambiare, ma abbiamo la capacità di cambiare, e il fatto che molte delle nostre delusioni e punti ciechi di autodifesa siano incorporati nel modo in cui funziona il nostro cervello non è una scusa per rinunciare a provare a cambiare. Ottimo - il cervello ci spinge anche a mangiare molto zucchero, ma in fondo la maggior parte di noi ha imparato a mangiare con appetito le verdure, non solo i dolci. Il cervello è progettato in modo da avere un lampo di rabbia quando veniamo attaccati? Ottimo, ma la maggior parte di noi ha imparato a contare fino a dieci e poi a trovare alternative alla semplice decisione di avventarsi sull'altro ragazzo con il club".

- dal libro di Carol Tevris ed Elliot Aronson "Gli errori che sono stati fatti (ma non da me)"

Internet ci ha dato accesso a enormi quantità di informazioni, ma allo stesso tempo ci ha permesso di filtrare queste informazioni in modo che confermassero il nostro punto di vista. I social media hanno connesso persone in tutto il mondo, ma allo stesso tempo hanno creato bolle filtranti che ci isolano discretamente dalle opinioni che non accettiamo.

Invece di capovolgere argomenti e difendere ostinatamente le nostre opinioni, è meglio cercare di capire come siamo arrivati a questa o quella conclusione. Forse dovremmo tutti imparare a condurre i dialoghi secondo il metodo socratico. Il compito del dialogo socratico non è vincere in una discussione, ma riflettere sull'affidabilità dei metodi che usiamo per creare la nostra immagine della realtà.

È improbabile che gli errori cognitivi riscontrati dagli psicologi si applichino solo agli studenti di Stanford. Siamo tutti irrazionali, e ci sono alcune ragioni per questo. Ci sforziamo di evitare la dissonanza cognitiva, esibiamo pregiudizi di conferma, neghiamo i nostri errori, ma siamo molto critici nei confronti degli errori degli altri. Nell'era dei "fatti alternativi" e delle guerre di informazione, è molto importante ricordarlo

Forse la verità si può scoprire in un dialogo, ma prima bisogna entrare in questo dialogo. La conoscenza dei meccanismi che distorcono il nostro pensiero dovrebbe essere applicata non solo agli avversari, ma anche a noi stessi. Se ti viene il pensiero "aha, qui tutto corrisponde pienamente alle mie convinzioni, quindi è vero", è meglio non rallegrarsi, ma cercare informazioni che mettano in dubbio la tua conclusione.

Consigliato: