sabato 25 giugno 2016

Psicologia generale 2 (9/12): Ragionamento probabilistico

La categorizzazione ha spesso natura probabilistica ed il ragionamento induttivo è strettamente connesso alla formazione dei concetti.
Dato che nulla può garantire che le generalizzazioni induttive siano assolutamente vere, allora esse possono essere solo probabilmente vere.


La legge dei grandi numeri


E' stato dimostrato che le persone credono che l'alternanza degli elementi di una sequenza casuale e limitata sia più probabile di quanto essa sia in realtà, quindi le persone sottostimano il grado di ripetitività degli elementi.
Questa credenza può portare a comportamenti rischiosi, come il continuare a puntare più volte sullo stesso colore nella roulette solo perchè per un certo numero di volte è uscito l'altro colore (gambler fallacy o errore del giocatore).
Spesso quando si vince o si perde con un numero si tende a rigiocarlo, nel primo caso nella speranza che esso esca ancora, nel secondo, nella speranza che esso finalmente esca.
Tuttavia se il numero di eventi in questione è piccolo, questo ragionamento è sbagliato, a causa della legge dei grandi numeri, la quale garantisce che solo i campioni molto grandi sono altamente rappresentativi della popolazione da cui sono stati estratti.
Tversky e Kahneman hanno definito questa tendenza ad applicare la legge dei grandi numeri anche a piccoli campioni, legge dei piccoli numeri.
Il giocatore tende a pensare che ogni deviazione in una direzione venga subito cancellata da una nell'altro senso, in modo che gli errori si annullino l'un l'altro (es. se lanciando una moneta esce testa, ci si aspetta che ci siano più probabilità che poi esca croce).
E' stato dimostrato che se ai soggetti si chiede di produrre una serie di risposte meno prevedibili possibili al posto che la serie più casuale possibile, si ottiene una sequenza di risposte molto vicina alla frequenza di ripetizioni dovute al caso.
L'errore del giocatore sembra essere legato al fatto che le persone considerino i lanci e le estrazioni successive come eventi legati e non come eventi indipendenti.



La probabilità condizionale


Nel problema delle 3 scatole ci sono 3 scatole chiuse (A,B,C) in cui in una è stato messo un premio, mentre le altre sono vuote, ed è stato detto che lo sperimentatore non aprirà mai la scatola A, ma aprirà una scatola vuota tra la B o la C, e quindi il compito dei soggetti è quello di indicare il valore delle probabilità che il premio si trovi nelle 2 scatole restanti.
In questo problema i soggetti non sembrano considerare il fatto che l'apertura (ad esempio) della scatola B non è casuale ma condizionata, e di conseguenza rispondono come se data l'apertura di B le 2 alternative rimaste avessero la stessa probabilità (50% e 50%), mentre secondo il teorema di Bayers, la probabilità che A contenga il premio dato che è stata aperta la scatola B è di 1/3, e quindi dato che la probabilità iniziale è uguale a 1/3, la probabilità che il premio sia in C è doppia (2/3) rispetto ad A (1/3).
Sembra quindi che i soggetti applichino alcune credenze intuitive ed erronee, come l'equiprobabilità delle restanti alternative (l'uniformity belief) e il no-news, no change belief, che deriva dal fatto che già dall'inizio si sa che almeno 1 delle 2 scatole è vuota e che quindi conoscere quale di queste sia, non aggiunge l'informazione, lasciando invariate le probabilità.
Quindi non capire la natura condizionale dell'evento porta ad un cambiamento dello scenario, in cui i soggetti non percepiscono più 3 scatole, ma 2, e ridistribuiscono le probabilità.
Per dimostrare queste ipotesi è stato modificato l'esperimento delle 3 scatole rendendo chiara la natura condizionata di B (con l'accensione e lo spegnimento di luci colorate a seconda dei casi), ed i risultati sono stati positivi, infatti la maggior parte dei soggetti ha risposto indicando le giuste percentuali di probabilità.



La fallacia della probabilità di base


Secondo Tversky e Kahneman, la maggior parte della gente valuta la probabilità di un evento considerando solo l'informazione specifica, a discapito della probabilità di base, ovvero quella dell'intera popolazione, perfino quando questa informazione è fornita in maniera esplicita.
Le euristiche sono delle scorciatoie cognitive che semplificano la complessità del valutare la probabilità di un evento, conducendo però spesso ad errori sistematici (biases).

Nell'esperimento del giudizio sociale, ad alcuni soggetti veniva fornita l'informazione che su 100 persone da esaminare, 30 erano ingegneri e 70 avvocati (e ad un secondo gruppo viceversa), e in base ad una descrizione specifica della personalità di ogni soggetto (stereotipata), essi dovevano dire a quale categoria esso apparteneva.
I risultati mostrarono che la media dei 2 gruppi non si dimostrò significativamente diversa, e ciò vuole dire che i soggetti avevano valutato ignorando l'informazione della popolazione e valutando solo l'informazione specifica, e in questo caso specifico, la stima della probabilità è direttamente proporzionale al grado di prototipicità.
Tuttavia, anche con una descrizione neutra, i soggetti tendevano ad ignorare la probabilità di base, ad eccezione del fatto che quando, tanto più i soggetti incontravano la descrizione neutra prima nella lista, tanto più tenevano in considerazione la probabilità di base, e viceversa.

Nel paradigma dei problemi scolastici si valuta la probabilità di base e l'informazione specifica (likelihood), come nel caso del compito dei taxi, dove un taxi viene coinvolto in un incidente e si sa che ci sono 2 compagnie di taxi (verde 85% e blu 15%), e che un testimone che ha identificato il taxi blu come colpevole ad un test di attendibilità ha identificato correttamente i taxi nell'80% dei casi (sbagliando il restante 20%).
Ai soggetti veniva chiesto di dire quale era la probabilità che il taxi colpevole fosse blu piuttosto che verde, ed è stato dimostrato che i soggetti trascurano la probabilità di base.
Secondo Ajzen, Tversky e Kahneman, la probabilità di base viene usata in relazione al grado in cui risulta causalmente rilevante, e quando entrambe le informazioni vengono considerate come causali, si riduce il fenomeno della base-rate fallacy.
Per provare questa ipotesi gli autori hanno creato una versione causale del problema del taxi, dove veniva data la probabilità di base di circolazione taxi al 50% e la percentuale di coinvolgimento in incidenti.

Un'altra prova del ruolo giocato dalla causalità è dato dal problema del suicidio, dove viene detto che l'80% delle persone è sposata e che il 20% non lo è, e che la percentuale dei morti per suicidio è 3 volte maggiore nei single.
In questo caso, la maggior parte delle persone sembra considerare solo il caso specifico, considerando solo il fatto che i single si suicidano 3 volte di più degli sposati, e questo risultato è giustificato con il legame causale dovuto all'essere single.

Per verificare questa ipotesi fu creato il problema dei libri, dove l'80% dei libri di un magazzino è in tedesco e il 20% è in francese, e dove la proporzione dei tascabili è 3 volte più alta nei francesi.
Alla domanda sulla probabilità che un tascabile scelto a caso sia francese i soggetti per la maggior parte rispondono usando il giusto ragionamento probabilistico.
Creando la versione del problema del suicidio causale (dividendo i soggetti in ragazze e ragazzi al posto di single e sposati), i risultati sono stati come per il problema dei libri.


La probabilità di base sembra avere un impatto minore in compiti che riguardano un singolo caso rispetto a quelli che riguardano una successione di eventi, come è stato dimostrato da degli esperimenti dove se ci si riferiva al singolo caso la gente sbagliava il calcolo delle probabilità, mentre se ci si riferiva alle frequenze, il numero di errori diminuiva.
Tuttavia, Macchi e Mosconi hanno dimostrato che la formulazione frequentistica dei problemi non sembra essere la spiegazione dell'eliminazione della fallacia.
Secondo Macchi i risultati positivi ottenuti dal problema dei suicidi in versione causale dipendono da un cambiamento sostanziale del testo e non dalla causalità, infatti era stata cambiata la frase parlando anche di tentati suicidi (formulazione partitiva).
La formulazione partitiva definisce la proporzione della popolazione di cui il dato rappresenta una parte, e quindi relativizza il contenuto numerico (caso in cui c'è presente la percentuale di morti suicidi e quella dei tentati suicidi), ed ha un triplice effetto: consente di identificare l'insieme di riferimento dei dati, elimina la confusione tra probabilità condizionali, e consente di percepire la relazione tra i dati e di utilizzarli.
Macchi ha quindi sostituito le parole tentati suicidi con morti suicidi, facendo salire la percentuale di errore al 73% anche nella versione causale del problema, e confermando così l'importanza dell'espressione partitiva per l'uso della probabilità di base e smontando l'ipotesi della causalità come spiegazione al fenomeno.
L'ipotesi partitiva sembra anche spiegare i risultati degli esperimenti con i termini di frequenza, infatti questi compiti sembrano avere la struttura partitiva e quindi sarebbe questa struttura la reale causa della diminuzione degli errori.


La sovrastima delle proprie risposte


E' stato dimostrato che le persone sovrastimano l'accuratezza delle proprie valutazioni (effetto overconfidence).
Chiedendo alle persone di rispondere a dei quesiti e di stimare la probabilità che la loro risposta sia corretta, è stato notato che spesso la fiducia delle persone nelle proprie risposte è superiore all'effettiva accuratezza di queste.
Le persone hanno l'impressione di aver avuto prestazioni peggiori con compiti facili e quindi l'overconfidence diminuisce man mano che il compito diventa più semplice, e con compiti molto facili, dove il soggetto ha più dell'80% di successo, esso sottostima la propria prestazione.
Griffin e Tversky hanno ipotizzato il modello forza-peso, dove per forza si intende quanto estremi sono i dati a favore di una certa ipotesi e per peso si intende la validità predittiva (attendibilità) del dato stesso.
Secondo questi autori, le persone si focalizzano sulla forza dei dati e poi fanno degli aggiustamenti in relazione al peso dei dati stessi, e dato che la modifica di un valore che fa da ancoraggio è solitamente insufficiente, la forza tende a dominare sul peso, rispetto a quanto prescritto dal modello teorico.
Si hanno quindi l'euristica della rappresentatività, l'euristica dell'ancoramento (per la quale si resta ancorati al valore di partenza) e l'euristica dell'aggiustamento (per la quale si modifica, ma in misura insufficiente, il valore di partenza in base ad altri elementi).
Quando in una situazione la forza è alta e il peso è basso, i soggetti sovrastimano le risposte, e viceversa, inoltre il peso è dato sia dall'ampiezza del campione, sia dalla probabilità di base, così l'overconfidence diventa un fenomeno che spiega gli errori base-rate fallacy.
Alcune critiche a questo modello hanno rilevato che i soggetti sbagliano le proprie stime più facilmente quando ci sono compiti difficili, che essi non conoscono.
Gigerenzer, Hoffrage e Kleinbolting hanno proposto la teoria dei modelli mentali probabilistici (PMM) per spiegare questo fenomeno, e secondo questa teoria il problema viene risolto costruendo un quadro inferenziale che consiste di una classe di oggetti di riferimento e degli indici di probabilità, quindi il fattore probabilistico viene definito relativamente ad una classe di riferimento e la sua validità dipende da tale classe.
La teoria PMM spiega la fiducia relativa alla singola stima attraverso il modello frequentistico, però la fiducia nella singola risposta e la frequenza di risposte corrette sono legate a diversi modelli mentali probabilistici.
May ha dimostrato che se la fiducia media supera la percentuale di risposte corrette, la stima della frequenza delle risposte corrette è di solito inferiore rispetto alla frequenza effettiva delle risposte, quindi la fiducia nelle risposte date non dipende dalla considerazione della frequenza di risposte corrette.



La fallacia dell'intersezione


E' stato rilevato anche un errore relativo alla probabilità dell'intersezione di due eventi (A e B), che sembra essere valutata maggiormente della probabilità dei singoli eventi (A o B), come dimostra il noto problema Linda, che va contro le leggi delle probabilità che impongono che l'intersezione di 2 eventi è probabilisticamente minore degli eventi presi singolarmente.
Secondo Tversky e Kahneman questo errore è dovuto all'euristica della rappresentatività, per la quale la probabilità di un evento è valutata in relazione al grado in cui questo rappresenta la sua fonte o il processo che lo produce.


L'ipotesi frequentistica è stata studiata a fondo e vari autori hanno ipotizzato che questo errore sia dovuto alla non estensionalità del termine probabilità, o al fatto che il problema usato si riferisse ad un caso singolo e non ad una successione di eventi.
I diversi studi fatti hanno riportato risultati diversi, probabilmente per via delle diversità nei tipi di versioni frequentistiche usate.


E' stato dimostrato che eliminando l'uso di e (dove presente) e rendendo saliente la relazione di inclusione tra gli item del problema, si dovrebbe ridurre l'errore.
Infatti modificando i problemi togliendo la e di congiunzione, i soggetti hanno commesso meno errori.
Macchi e Mosconi hanno infine dimostrato l'inaccettabilità pragmatica della comparazione richiesta in questo tipo di problemi, come nel caso del problema di Linda, dove i soggetti non scelgono come più probabile A rispetto a A e B, perchè quest'ultima è diventata una sottocategoria includente complementare, ovvero A e non-B.


<< Lezione precedente - Prossima lezione >>


Torna all'elenco delle lezioni

 

Piaciuto l'articolo? Lascia un commento!

EmoticonEmoticon