C’era una volta…
Questa è una storia del periodo in cui incontrai per la prima volta Marcello, col quale avrei lavorato in seguito per un anno sulla teoria dell’IA; ma in quel momento non l’avevo ancora accettato come apprendista. Sapevo che aveva partecipato a livello nazionale alle Olimpiadi di matematica e informatica, il che era stato sufficiente a spingermi a dargli un’occhiata più da vicino; ma non sapevo ancora se avrebbe potuto imparare a pensare in termini di IA.
Chiesi a Marcello come pensava che un’IA avrebbe potuto scoprire il modo di risolvere il cubo di Rubik. Non in modo preprogrammato, che è banale, ma piuttosto come l’IA stessa potrebbe capire da sola le leggi dell’universo di Rubik e ragionare su come utilizzarle. Come farebbe un’IA a inventare da sola il concetto di “operatore”, o “macro”, che è la chiave per risolvere il cubo di Rubik?
A un certo punto di questa discussione, Marcello disse: “Beh, penso che l’IA richieda complessità per fare X e complessità per fare Y –”
E io dissi: “Non dire ‘complessità’.“
E Marcello chiese: “Perché no?”
Gli dissi: “La complessità non dovrebbe mai essere un obiettivo di per se stessa. Puoi aver bisogno di utilizzare un particolare algoritmo che aggiunge una certa quantità di complessità, ma la complessità per il gusto della complessità rende solo le cose più difficili.” (Stavo pensando a tutte le persone che ho sentito sostenere che internet “si sveglierà” e diventerà un’IA quando sarà diventata “sufficientemente complessa”.)
E Marcello disse: “Ma ci dev’essere una qualche quantità di complessità che lo fa.”
Chiusi brevemente gli occhi, e cercai di pensare a come spiegarlo a parole. Dal mio punto di vista, semplicemente sentivo che dire ‘complessità’ era la mossa sbagliata nella danza dell’IA. Nessuno può pensare abbastanza velocemente da esprimere in parole ogni elemento del proprio flusso di consapevolezza; per fare ciò sarebbe necessaria una ricorsione infinita. Noi pensiamo in parole, ma il flusso della nostra consapevolezza è gestito al di sotto del livello verbale, dai residui addomesticati di passate intuizioni e dure esperienze…
Gli chiesi: “Hai letto Una spiegazione tecnica delle spiegazioni tecniche?”
“Sì”
“OK, dire ‘complessità’ non concentra la tua massa di probabilità.”
“Oh,” rispose Marcello “come ‘emergenza‘. Huh. Quindi… dovrei cercare di pensare a come X può effettivamente avvenire…”
Qui è quando pensai tra me e me: “Forse a lui si può insegnare.“
Complessità non è un concetto inutile. Si porta dietro delle definizioni matematiche, come la complessità di Kolmogorov e la complessità di Vapnik-Chervonenkis. Spesso val la pena di pensare alla complessità persino a livello intuitivo – puoi giudicare la complessità di un’ipotesi e decidere se è “troppo complicata” sulla base dell’evidenza che la sostiene, o guardare un progetto e cercare di renderlo più semplice.
Ma i concetti non sono utili o inutili di per se stessi. Solo i loro impieghi sono corretti o scorretti. Con il passo che Marcello stava cercando di fare nella danza, cercava di spiegare qualcosa gratis, di ottenere qualcosa in cambio di niente. È un passo falso estremamente comune, almeno nel mio campo. Puoi partecipare a una discussione sulla Intelligenza Artificiale Generale e guardare come la gente fa la stessa cosa, a destra e a manca, ancora e ancora di nuovo – costantemente trascurando le cose che non capiscono, senza rendersi conto che lo stanno facendo.
Succede in un batter d’occhio: inserire un nodo causale non-controllante dietro qualcosa di misterioso, un nodo causale che sembra una spiegazione ma non lo è. L’errore avviene al di sotto del livello delle parole. Non richiede un qualche speciale difetto di carattere; è il modo in cui gli esseri umani pensano di default, sin dall’antichità.
Quello che devi evitare è il trascurare le parti misteriose; devi marcare stretto il mistero per affrontarlo direttamente. Ci sono molte parole che possono far sorvolare i misteri, e alcune di queste sarebbero legittime in altri contesti – ad esempio “complessità”. Ma l’errore essenziale è sorvolare, indipendentemente da quale nodo causale ci metti dietro. Questo sorvolare non è un pensiero, ma un micropensiero. Devi fare molta attenzione per accorgerti che lo stai facendo. E quando ti addestri ad evitarlo, diventa una cosa istintiva, non un atto di ragionamento verbale. Devi sentire quali parti della tua mappa sono ancora bianche e, ancora più importante, prestare attenzione a quella sensazione.
Sospetto che a livello accademico ci sia una forte pressione a spazzare i problemi sotto il tappeto, in modo da poter presentare una pubblicazione con l’apparenza della completezza. Ottieni più kudos per un modello che sembra completo e comprende alcuni “fenomeni emergenti“, piuttosto che una mappa esplicitamente incompleta dove l’etichetta dice chiaramente “Non ho idea di come funzioni questa parte” o “e qui accade un miracolo”. Una rivista potrebbe anche non accettare il secondo tipo, perché chissà se i passi sconosciuti sono proprio il posto in cui avvengono tutte le cose interessanti? E sì, a volte capita proprio che tutte le parti non-magiche della tua mappa risultino essere anche non-importanti. Questo è il prezzo da pagare, a volte, per il fatto di entrare nella terra incognita e cercare di risolvere incrementalmente i problemi. Ma questo rende persino più importante il sapere che non hai ancora finito. Prevalentemente la gente non osa affatto entrare nella terra incognita, per la paura mortale di sprecare il proprio tempo.
E se stai lavorando a una rivoluzionaria startup sull’Intelligenza Artificiale, c’è una pressione ancora più forte a spazzare i problemi sotto il tappeto; o dovrai ammettere con te stesso che non sai ancora come costruire un’IA, e i tuoi attuali progetti andranno in frantumi intorno a te. Ma forse io sto complicando inutilmente la spiegazione, in quanto questo sorvolare i problemi avviene di default negli esseri umani; se hai bisogno di esempi, basta guardare la gente che discute di religione, filosofia o spiritualità, o di qualsiasi scienza in cui non siano professionalmente preparati.
Marcello e io abbiamo sviluppato una convenzione nel nostro lavoro sull’IA: quando capitavamo su qualcosa che non comprendevamo, e capitava spesso, dicevamo “magia” – come in “X magicamente produce Y” – per ricordare a noi stessi che qui c’era un problema irrisolto, una lacuna nella nostra comprensione. È molto meglio dire “magia” che “complessità” o “emergenza”; le ultime due parole creano un’illusione di comprensione. Più saggio dire “magia” e lasciare un segnaposto, un promemoria di un lavoro che dovrai fare in seguito.