Da Scelte razionali in un mondo incerto di Robyn Dawes:
Adattare a posteriori le evidenze alle ipotesi, ha influito su uno dei capitoli più tristi della storia degli Stati Uniti: l’internamento dei giapponesi-americani all’inizio della Seconda Guerra Mondiale. Quando il Governatore della California Earl Warren testimoniò davanti a una commissione del Congresso a San Francisco il 21 febbraio 1942, gli venne fatto notare che non risultava che ci fossero stati sabotaggi o atti di spionaggio da parte dei giapponesi-americani fino ad allora. Warren rispose: “La mia opinione è che questa mancanza [di attività sovversive] sia il segnale più allarmante nell’intera situazione. Mi convince, forse più di qualsiasi altro fattore, che il sabotaggio di cui stiamo per essere vittime, le attività da Quinta Colonna che ci aspettano, sono accuratamente predisposte proprio come fu predisposto l’attacco a Pearl Harbor… Io credo che ci stiano inducendo a una falsa sensazione di sicurezza.”
Consideriamo l’argomento di Warren da una prospettiva bayesiana. Quando vediamo un’evidenza, le ipotesi che assegnano a quell’evidenza una verosimiglianza maggiore guadagnano probabilità a spese delle ipotesi che assegnano una verosimiglianza minore all’evidenza stessa. Questo è un fenomeno di verosimiglianze relative e di probabilità relative. Puoi assegnare una confidenza alta ad un’evidenza e perdere comunque peso probabilistico nei confronti di un’altra ipotesi, se a quest’ultima è assegnata una confidenza ancora maggiore.
Warren sembra sostenere che, dato che non vediamo atti di sabotaggio, questo conferma che esiste una Quinta Colonna. Si può effettivamente sostenere che una Quinta Colonna potrebbe ritardare i suoi atti di sabotaggio. Ma resta maggiore la probabilità che l’assenza di una Quinta Colonna causi l’assenza di sabotaggi.
Chiamiamo E l’osservazione dell’assenza di sabotaggi, H1 l’ipotesi di una Quinta Colonna giapponese-americana, e H2 l’ipotesi che questa Quinta Colonna non esista. Qualunque sia la probabilità che la Quinta Colonna non faccia atti di sabotaggio, la probabilità P(E|H1), questa non può essere maggiore della probabilità che un’inesistente Quinta Colonna eviti di fare atti di sabotaggio, la probabilità P(E|H2). Quindi, osservare l’assenza di sabotaggi, aumenta la probabilità che la Quinta Colonna non esista.
L’assenza di un sabotaggio non è una prova dell’inesistenza di una Quinta Colonna. L’assenza di una prova non è la prova di un’assenza. In logica, A -> B, “A implica B”, non è equivalente a ~A -> ~B, “non-A implica non-B”.
Ma nella teoria delle probabilità, l’assenza di evidenza è sempre evidenza di un’assenza. Se E è un evento binario e P(H|E) > P(H), “vedere E aumenta la probabilità di H”; quindi P(H|~E) < P(H), “la mancata osservazione di E riduce la probabilità di H”. P(H) è una media ponderata di P(H|E) e P(H|~E), e si trova necessariamente tra le due. Se qualcosa di questo ragionamento ti confonde, leggi Una spiegazione intuitiva del ragionamento bayesiano.
Nella grande maggioranza delle situazioni reali, una determinata causa può non produrre un esito in modo affidabile, ma è ancora meno probabile che l’assenza della causa produca l’esito. L’assenza di un’osservazione può essere evidenza forte di un’assenza o un’evidenza molto debole di assenza, a seconda di quanto è probabile che che la causa produca l’osservazione. L’assenza di un’osservazione che è solo debolmente permessa (anche se l’ipotesi alternativa non la permette affatto), è un’evidenza molto debole di assenza (anche se è comunque un’evidenza). Questo è l’errore del ragionamento basato sulle “lacune nella documentazione fossile” – i fossili si formano solo raramente; è inutile strombazzare l’assenza di un’osservazione solo debolmente permessa quando sono note molte forti evidenze positive. Ma se non ci sono affatto osservazioni positive, è il momento di preoccuparsi; da qui il paradosso di Fermi.
La tua forza come razionalista è la tua capacità di essere più confuso dalla finzione che dalla realtà; se sei ugualmente capace di spiegare ogni possibile esito, la tua conoscenza è zero. La forza di un modello non è in ciò che può spiegare, ma in ciò non può, in quanto solo le proibizioni vincolano l’aspettativa. Se non ti accorgi quando il tuo modello rende improbabile la generazione di evidenza, tanto varrebbe non avere il modello, e nemmeno l’evidenza; potresti altrettanto essere senza cervello e senza occhi.