Il Flogisto era la risposta del XVIII secolo al Fuoco Elementale degli alchimisti greci. Accendi il legno e lascialo bruciare. Cos’è quella roba arancione brillante, “fuoco”? Perché il legno si trasforma in cenere? A entrambe le domande, i chimici del XVIII secolo rispondevano “flogisto”.
…ed era tutta lì, vedete, la loro risposta: “Flogisto”.
Il flogisto sfuggiva dalle sostanze che bruciano come fuoco visibile. Con la perdita del flogisto la sostanza diventa cenere, la “vera materia”. Le fiamme in un contenitore chiuso si spengono perché l’aria diventa satura di flogisto, e non ne può accogliere di più. Il carbone lascia poco residuo quando brucia perché è fatto di flogisto quasi puro.
Naturalmente, uno non usava la teoria del flogisto per prevedere il risultato di una trasformazione chimica. Prima guardavi il risultato, poi usavi la teoria del flogisto per spiegarlo. Non è che i teorici del flogisto predicessero che una fiamma si estingue in un contenitore chiuso; invece accendevano una fiamma in un contenitore, vedevano che si spegneva, e dicevano, “l’aria si dev’essere saturata di flogisto”. Non potevi usare la teoria del flogisto neanche per dire cosa non dovresti vedere; poteva spiegare qualsiasi cosa.
Questa era un’età iniziale per la scienza. Per molto tempo nessuno si rese conto nemmeno che ci fosse un problema. Le false spiegazioni non sembrano false. Questo è ciò che le rende pericolose.
Le moderne ricerche suggeriscono che gli umani pensino alle cause e agli effetti usando qualcosa che assomiglia a grafi diretti aciclici di reti bayesiane. Siccome ha piovuto, il marciapiede è bagnato; siccome il marciapiede è bagnato, è scivoloso:
[Pioggia] -> [Marciapiede bagnato] -> [Marciapiede scivoloso]
Da questo possiamo inferire – o, in una rete bayesiana, calcolare rigorosamente come probabilità – che quando il marciapiede è scivoloso, probabilmente ha piovuto; ma se già sappiamo che il marciapiede è bagnato, imparare che è anche scivoloso non aggiunge nessuna informazione sul fatto che abbia o meno piovuto.
Perché il fuoco è caldo e luminoso mentre brucia?
[“Flogisto”] -> [Fuoco caldo e luminoso]
Questa sembra una spiegazione. È rappresentata usando lo stesso formalismo cognitivo. Ma la mente umana non riconosce automaticamente quando una causa punta incondizionatamente a un effetto. Peggio, grazie al bias del senno di poi, può sembrare che la causa provochi l’effetto, mentre è stata semplicemente adattata all’effetto stesso.
È interessante che la nostra moderna comprensione del ragionamento probabilistico sulla causalità possa descrivere esattamente in cosa sbagliavano i teorici del flogisto. Una delle ispirazioni principali alle reti bayesiane venne dal notare il problema delle evidenze contate due volte se l’inferenza risuona tra un effetto e una causa. Ad esempio, diciamo che io ho un frammento di informazione inaffidabile sul fatto che il marciapiede sia bagnato. Questo dovrebbe farmi pensare che è più probabile che stia piovendo. Ma, se è più probabile che stia piovendo, questo non rende più probabile che il marciapiede sia bagnato? E questo non rende forse più probabile che sia anche scivoloso? Ma se il marciapiede è scivoloso, è probabilmente bagnato; e quindi devo di nuovo aumentare la mia stima della probabilità che stia piovendo…
Judea Pearl usa la metafora di un algoritmo per contare i soldati in una colonna. Supponi di essere nella colonna e vedi due soldati vicini a te, uno davanti e uno dietro. Questo fa tre soldati. Allora chiedi al soldato di fianco a te: “Quanti soldati vedi tu?” Lui si guarda attorno e risponde: “Tre”. E questo fa un totale di sei soldati. Questo, ovviamente, non è il modo corretto.
Un modo più furbo è di chiedere al soldato davanti a te: “Quanti soldati ci sono davanti a te?” e al soldato dietro: “Quanti soldati ci sono dietro a te?” La domanda “Quanti soldati davanti?” può essere passata avanti senza confusione. Se io sono alla testa della colonna, passerò il messaggio “1 davanti”, cioè me stesso. La persona direttamente dietro di me riceve il messaggio “1 davanti” e trasmette indietro il messaggio “2 davanti”. Allo stesso tempo ciascun soldato riceve anche il messaggio “N dietro” dal soldato dietro di lui, e passa il messaggio “N+1 dietro” al soldato davanti a lui. Quanti sono in totale i soldati? Somma i due numeri che ricevi e aggiungi uno per te stesso: quello è il totale dei soldati nella colonna.
L’idea cardine è che ciascun soldato deve gestire separatamente i due messaggi, il messaggio “davanti” e il messaggio “dietro”, e sommarli insieme solo alla fine. Non aggiungi mai i soldati del messaggio “dietro” che ricevi al messaggio “avanti” che trasmetti. In effetti, il numero totale dei soldati non viene mai trasmesso come messaggio – nessuno lo pronuncia mai.
Un principio analogo opera nel rigoroso ragionamento probabilistico sulla causalità. Se impari qualcosa sul fatto che sta piovendo, da qualunque fonte tranne l’osservazione che il marciapiede è bagnato, questo manda un messaggio in avanti da [pioggia] a [marciapiede bagnato] e aumenterà la tua aspettativa che il marciapiede sia bagnato. Se osservi che il marciapiede è bagnato, questo manda un messaggio all’indietro alla tua ipotesi che stia piovendo, e questo messaggio si propaga da [pioggia] a tutti i nodi vicini ad eccezione del nodo [marciapiede bagnato]. Contiamo ogni elemento di evidenza esattamente una volta; nessun messaggio “rimbalza” mai avanti e indietro. L’algoritmo esatto può essere trovato nel classico “Probabilistic Reasoning in Intelligent Systems: Networks of Plausible Inference” di Judea Pearl.
Quindi, cosa è andato storto nella teoria del flogisto? Quando osserviamo che il fuoco è caldo, il nodo [Fuoco] può mandare un’evidenza all’indietro al nodo [Flogisto], permettendoci di aggiornare la nostra convinzione sul flogisto. Ma in questo caso non possiamo considerarla anche come una predizione-in-avanti riuscita per la teoria del flogisto. Il messaggio deve andare in una sola direzione, e non rimbalzare indietro.
Ahimè, gli esseri umani non usano un algoritmo rigoroso per aggiornare le loro reti di credenze. Impariamo cose sui nodi genitori osservando i figli, e prediciamo il comportamento dei figli basandoci su quello che crediamo dei genitori. Ma non teniamo un conteggio rigorosamente separato dei messaggi in avanti e all’indietro. Ci ricordiamo solo che il flogisto è caldo, che causa il calore del fuoco. Così sembra che il calore del flogisto predica il calore del fuoco. O, peggio, sembra quasi che il flogisto renda caldo il fuoco.
Finché non ti rendi conto che non viene fatta nessuna predizione in anticipo, questo nodo che non condiziona l’aspettativa non viene etichettato “falso”. È rappresentato allo stesso modo di ogni altro nodo nella rete di credenze. Viene sentito come un fatto, come tutti gli altri fatti che conosci: il flogisto rende il fuoco caldo.
Una IA progettata correttamente dovrebbe notare il problema immediatamente. Questo non richiederebbe neanche del codice ad hoc, solo tenere correttamente traccia della rete. (Purtroppo noi umani non possiamo riscrivere il nostro stesso codice, nel modo in cui potrebbe fare una IA ben progettata).
Parlare del “bias del senno di poi” è solo un modo non tecnico di dire che gli umani non separano rigorosamente i messaggi in avanti da quelli all’indietro, permettendo ai messaggi in avanti di essere contaminati da quelli all’indietro.
Quelli che tanto tempo fa si sono incamminati sulla strada del flogisto, non cercavano di comportarsi da stupidi. Nessuno scienziato cerca deliberatamente di finire in un vicolo cieco. Ci sono delle false spiegazioni nella tua mente? Se ci sono, ti posso garantire che non hanno un’etichetta “falsa spiegazione”, per cui cercare nei tuoi pensieri la parola chiave “falsa” non permetterà di individuarle.
Grazie al bias del senno di poi, non è neanche sufficiente verificare quanto bene la tua teoria “preveda” fatti che ti sono già noti. Devi fare previsioni per domani, non per ieri. È l’unico modo in cui un’incasinata mente umana può avere la garanzia di mandare un messaggio esclusivamente in avanti.