Come si percepisce un algoritmo dall’interno

Articolo originale
Eliezer Yudkowsky
11 Febbraio 2008

Seguito di: Categorie Neurali

“Se un albero cade nella foresta, e nessuno lo sente, produce ugualmente un suono?” Ricordo di aver visto una discussione reale cominciare su questo argomento — un argomento assolutamente naive che non si avvicina nemmeno al soggettivismo di Berkeley. Solo:

“Produce un suono, proprio come ogni albero che cade!”
“Ma come ci può essere suono se nessuno lo sente?”

Il punto di vista razionalista standard è che la prima persona parla come se “suono” significasse vibrazioni acustiche dell’aria; la seconda invece parla come se “suono” significasse un’esperienza uditiva in un cervello. Se chiedi “Ci sono vibrazioni acustiche?” o “Ci sono esperienze uditive?”, la risposta è immediatamente ovvia. E quindi la discussione è in realtà sulla definizione della parola “suono”.

Ritengo che questa analisi standard sia sostanzialmente corretta. Quindi accettiamola come premessa e chiediamoci: perché la gente discute su cose del genere? Qual è la psicologia soggiacente?

Un’idea centrale del Programma Euristiche e Bias è che gli errori sono spesso più rivelatori della cognizione che le risposte corrette. Entrare in un acceso dibattito su fatto che se un albero cade in una foresta deserta produce un suono, è tradizionalmente considerato un errore.

Quindi, quale tipo di progetto mentale corrisponde a questo errore?

In Distinzioni Mascherate ho introdotto il compito di classificazione blovi/rubi, in cui Susan, la Separatrice Anziana, spiega che il tuo lavoro è separare gli oggetti che arrivano da un nastro trasportatore, mettendo le uova blu, o “blovi”, in un contenitore e i cubi rossi, o “rubi” in un altro. Questo è perché i blovi contengono piccoli noduli di minerale di vanadio e i rubi contengono schegge di palladio, che sono entrambi utili industrialmente.

A parte che circa il 2% degli oggetti blu a forma di uovo contengono invece palladio. Se trovi un uovo blu che contiene palladio, dovresti invece chiamarlo “rubo”? Lo metterai nel contenitore dei rubi — perché non chiamarlo “rubo”?

Ma quando spegni la luce, quasi tutti i blovi luccicano debolmente nel buio. E gli oggetti blu a forma di uovo che contengono palladio hanno la stessa probabilità di brillare al buio di ogni altro oggetto blu a forma di uovo.

Così, se trovi un oggetto blu a forma di uovo che contiene palladio, e ti chiedi “È un blovo?”, la risposta dipende da cosa ci devi fare: Se chiedi “In quale contenitore va questo oggetto?”, sceglierai come se l’oggetto fosse un rubo. Ma se chiedi “Se spengo la luce, brillerà?”, dovrai prevederlo come se fosse un blovo. In un caso la domanda “È un blovo?” sta per la distinzione mascherata, “In quale contenitore deve andare?”. Nell’altro caso la domanda “È un blovo?” sta per la distinzione mascherata, “Brillerà al buio?”

Ora supponiamo che tu abbia trovato un oggetto che è blu, a forma di uovo e contiene palladio; è hai già verificato che è pelliccioso, cedevole, opaco e brilla al buio.

Questo risponde a ogni distinzione, osserva ogni caratteristica osservabile nota. Non rimane nulla per sostenere una distinzione mascherata.

Allora perché qualcuno potrebbe sentire un impulso a continuare a discutere se l’oggetto è veramente un blovo?

Rete 1Colore+Blu-RossoForma+Uovo-CuboLuminosità+Brilla-BuioSuperficie+Pelliccioso-LiscioContenuto+Vanadio-PalladioRete 2Colore+Blu-RossoForma+Uovo-CuboLuminosità+Brilla-BuioSuperficie+Pelliccioso-LiscioContenuto+Vanadio-PalladioCategoria+Blovo-Rubo

Questo diagramma da Categorie Neurali mostra due differenti reti neurali che potrebbero essere usate per rispondere a domande su blovi e rubi. La Rete 1 ha una quantità di svantaggi — come ad esempio comportamenti oscillatori o caotici, o il fatto di richiedere O(N^2) connessioni — ma la Rete 1 ha un vantaggio significativo sulla Rete 2: ogni nodo della rete corrisponde a una caratteristica verificabile. Se osservi tutto l’osservabile, fissando ogni valore, non avanzano nodi della rete.

La Rete 2, tuttavia, è un candidato molto migliore per qualcosa di vagamente simile a come funziona il cervello umano: è veloce, economica, scalabile — e ha un nodo aggiuntivo al centro, la cui attivazione può ancora variare, anche dopo che abbiamo osservato ogni singolo nodo che lo circonda.

Il che significa che anche quando sai se un oggetto è rosso o blu, ovale o cubico, pelliccioso o liscio, luminoso o buio e se contiene vanadio o palladio, sembra che ci sia ancora una domanda senza risposta: ma è davvero un blovo?

Normalmente, nella nostra esperienza quotidiana, vibrazioni acustiche e esperienza uditiva vanno insieme. Ma un albero che cade in una foresta deserta smonta questa comune associazione. E anche quando sai che l’albero che cade provoca vibrazioni acustiche ma non esperienze uditive sembra che ci sia ancora una domanda senza risposta: Ha prodotto un suono?

Sappiamo dov’è Plutone e dove sta andando; conosciamo la forma di Plutone e la sua massa — ma è un pianeta?

Ora ricordati che quando guardi la Rete 2 come l’ho disegnata qui sopra, stai vedendo l’algoritmo dall’esterno. La gente non pensa di se stessa “Dovrei attivare o no il nodo centrale?”, non più di quanto tu pensi “Il neurone #12,234,320,242 della mia corteccia visuale, deve attivarsi o no?”

È necessario uno sforzo deliberato per visualizzare il tuo cervello dall’esterno — e comunque non puoi vedere effettivamente il tuo cervello; puoi immaginare quello che pensi ci sia, possibilmente sulla base di dati scientifici, ma comunque non hai un accesso introspettivo diretto alla tua struttura neurale. Questo è il perché gli antichi greci non hanno inventato la neuroscienza computazionale.

Quando guardi la Rete 2, la stai vedendo dall’esterno, ma il modo in cui la struttura di quella rete neurale sente dall’interno, se tu stesso fossi un cervello che esegue quell’algoritmo, è che se anche conosci tutte le caratteristiche dell’oggetto, ti trovi a domandarti: “Ma è o no un blovo?”

Questo è un grosso salto da fare, e ho visto persone che non riescono a superarlo. Perché noi non vediamo le nostre intuizioni istintivamente come “intuizioni”, le vediamo come se fossero semplicemente il mondo. Quando guardi una tazza verde, non pensi di te stesso che stai vedendo un’immagine ricostruita nella tua corteccia visuale — anche se questo è quello che stai vedendo — tu vedi semplicemente una tazza verde. Tu pensi, “Ehi, guarda, questa tazza è verde”, non “L’immagine nella mia corteccia visiva di questa tazza è verde”.

E allo stesso modo, quando le persone discutono se l’albero caduto ha prodotto un suono, o se Plutone è un pianeta, non vedono se stesse discutere se una certa categoria dev’essere o meno attivata nella loro rete neurale. Sembra loro che l’albero o produce un suono oppure no.

Noi sappiamo dov’è Plutone e dove sta andando; conosciamo la forma di Plutone e la sua massa — ma è un pianeta? E sì, ci sono persone che dicono che questa era una discussione sulle definizioni — ma anche questa è una prospettiva da Rete 2, perché stai discutendo su come dev’essere collegato il nodo centrale. Se tu fossi una mente costruita sul modello della Rete 1, non diresti “Dipende da come definisci ‘pianeta’”, diresti “Dato quello che sappiamo Dell’orbita, della forma e della massa di Plutone, non ci sono altre domande che possano essere fatte”. O, piuttosto questo è quello che proverestisentiresti che non ci sono altre domande in sospeso — se tu avessi una mente di tipo Rete 1.

Prima di poter discutere le tue intuizioni, devi comprendere che quello che l’occhio della tua mente sta guardando è un’intuizione — un qualche algoritmo cognitivo visto dall’interno — piuttosto che una percezione diretta del Modo in cui le Cose Sono Realmente.

La gente si aggrappa alle sue intuizioni, credo, non tanto perché credono che i loro algoritmi cognitivi siano perfettamente affidabili, ma perché non possono vedere le loro intuizioni come il modo in cui il loro algoritmo cognitivo appare dall’interno.

E così qualunque cosa cerchi di dire su come l’algoritmo cognitivo si inganna, finisce con il contrastare la percezione diretta di Come le Cose Stanno Realmente — e scartata in quanto ovviamente sbagliata.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Chaos Legion wants you!