L’emozione del pensiero. Alan Turing e l’origine dell’intelligenza artificiale

Da una domanda a un gioco

Se l’espressione intelligenza artificiale fa parte ormai del lessico comune e viene comunemente usata per indicare qualcosa che (in maniera più o meno consapevole) si suppone pacificamente esistere, non così è per la dizione parallela emozioni artificiali: essa suscita normalmente l’impressione di essere bizzarra e di indicare un oggetto inesistente o impossibile. Come è facile immaginare, c’è ben poco in realtà che non sia in qualche modo oggetto di riflessione filosofica: le “emozioni artificiali” non fanno eccezione.1 Il motivo per cui questo campo di ricerca non è al centro dell’attenzione pubblica è evidente: è facile desiderare che ci sia qualcosa che “comprenda”, magari laddove agli esseri umani non è facile, in modo da poter usare questa comprensione esternalizzata come un surrogato; ma in che modo potrebbe essere utile un’emozione delegata ad una macchina, e in che modo essa potrebbe essere nuovamente appropriata da un essere umano? E ciononostante, raramente il punto di vista pragmatico dell’utilità è il migliore quando si tratta di studiare questioni squisitamente antropologiche. In fondo (in questo modo possiamo impostare provvisoriamente la domanda) se l’“intelligenza artificiale” dice l’attribuzione ad un’entità non umana di una facoltà che viene anzitutto compresa a partire dall’umanità, e che anzi tradizionalmente le è stata riconosciuta come elemento proprio se non addirittura essenziale (il logos come intelligenza, appunto), perché dovrebbe essere tanto diversa la domanda sull’emozione, che a prima vista anzi possiede un nesso meno forte con l’umanità? Che una risposta positiva abbia o no un’utilità pratica è, almeno in prima battuta, completamente irrilevante.

La storia dell’informatica e delle questioni connesse è un campo meno frequentato di quanto meriti. In ciò, in parte essa subisce una sorte simile alle altre storie delle scienze: discipline sì nobili e consolidate, ma inserite in quell’intersezione tra cultura scientifica e umanistica i cui abitanti rischiano, perduta la doppia cittadinanza, di diventare improvvisamente apolidi. In parte gioca però il problema specifico di una connessione evidentemente stretta con la storia materiale (anch’essa ovviamente interessante) delle macchine che hanno incoraggiato una certa forma di pensiero: e così la storia della computer science (come viene abitualmente chiamata nella cultura americana) non solo è diversa dalla storia dell’informatics (come sempre più è chiamata in Europa), ma tende a diventare una storia dei computer. Se però si cerca di rimanere nei binari di una storia dell’informatica, almeno al livello elementare di reperimento critico delle fonti, si scopre qualcosa di interessante: e cioè che, in un modo o nell’altro, la questione delle emozioni artificiali è nominata fin dalla nascita dell’informatica e, in un certo senso, fa parte del suo codice genetico. La questione delle emozioni artificiali, insomma, benché apparentemente marginale e certamente non semplice da percorrere, può servire come un filo rosso per percorrere alcuni aspetti cruciali della storia di uno dei campi culturali oggi più importanti nella vita dell’umanità. Cercheremo qui di prendere in considerazione solo un momento iniziale: certo limitato, ma molto significativo.

Tale momento è la riflessione pioneristica di Alan Turing, nota soprattutto attraverso l’articolo Computing Machinery and Intelligence: si tratta di un testo che apparentemente non ha bisogno di troppe presentazioni.2 Tentiamone comunque una sintesi provvisoria. Alan Turing prende le mosse dal problema se le macchine possano “pensare”: anche se l’espressione “intelligenza artificiale” non viene usata, si tratta chiaramente del tema che a partire dalla metà degli anni 50 assumerà questa denominazione (peraltro, Turing in questo testo usa come sinonimi “pensare” ed “essere intelligenti”). In ogni caso, però, Turing giudica troppo sfuggente la domanda “se le macchine possano pensare”, e la sostituisce subito con una relativa al celebre imitation game che egli descrive.3 In realtà, il modo con cui spesso tale gioco viene riferito è sottilmente diverso dal modo in cui Turing lo descrive: non si tratta tanto di chiedersi se un computer possa far credere di essere un umano, quanto di chiedersi se un osservatore possa sbagliarsi nel distinguere le risposte di una macchina da quelle di un essere umano (senza ovviamente osservare fisicamente chi o che cosa le abbia prodotte) almeno tanto quanto egli si sbaglia nel distinguere le risposte di un uomo da quelle di una donna. Benché innumerevoli volte riprodotto e citato, l’articolo, proprio nella sua proposta cruciale, appare quindi soggetto ad una semplificazione probabilmente indebita, accresciuta (ciò che in realtà è accaduto fin dai primi commentatori) quando la nuova domanda viene interpretata come una sorta di “definizione” del pensiero. Una lettura attenta dell’articolo mostra al contrario che Turing non intende affatto fare questo, ma piuttosto (come esplicitamente dichiara) solo sostituire ad una domanda, troppo generica per poter ricevere una risposta (too meaningless, ad un certo punto egli scrive), un’altra più chiaramente circoscritta: che fa appello, come abbiamo visto, anche alle dinamiche in cui le macchine sono inserite nella vita umana, e al fatto che l’identificazione della qualità di ciò con cui gli esseri umani entrano in contatto è in ogni caso soggetta ad errori.

Il problema inafferrabile della capacità di pensiero viene insomma sostituito con la possibilità che alcune macchine particolari possano entrare, almeno in una certa misura, nelle stesse dinamiche di interazione sociale che esistono tra esseri umani, con paragonabili possibilità di errori. Rispetto al modo semplificato con cui spesso l’imitation game viene citato, bisogna anche notare che per le prime tre pagine Turing non parla affatto di “computer”, ma genericamente di “macchina”: il “digital computer” o “electronic computer” viene introdotto solo perché esso pare l’unico caso con probabilità di successo. Esso infatti è una macchina “universale” che può effettuare qualsiasi tipo di calcolo, così come verrebbe effettuato da un “human computer” (computer era all’epoca ancora il nome di una professione), seguendo regole adeguatamente programmate. L’imitation game viene quindi ulteriormente precisato dalla richiesta che la macchina in questione agisca seguendo regole specificate (ma eventualmente – aggiunta molto interessante – anche integrando una componente di casualità). Ciò valga come presentazione generale.

Un’obiezione e una cortese convenzione

La notorietà dell’articolo di Turing non ha però probabilmente avuto solo la conseguenza negativa di sostituire riferimenti approssimativi al suo effettivo filo del discorso. Vi è stata anche la conseguenza negativa di aver isolato tale testo dal complesso della riflessione di Turing, e quella di aver dimenticato il contesto dialettico in cui Turing si inserisce con la sua proposta. Come mostra una lettura appena attenta, Turing non sta affatto introducendo nel suo contesto culturale la domanda sul pensiero delle macchina: sta piuttosto entrando in un dibattito già attivo (e al quale lui stesso aveva già contribuito). Il suo articolo del 1950 è infatti una presa di posizione della quale una parte integrante (probabilmente anzi la più importante) è costituita dalle risposte ad obiezioni alla possibilità di attribuire “pensiero” alle macchine. Le obiezioni prese qui in considerazione da Turing sono nove, ma quella che ci interessa di più è la quarta. Essa è l’unica, peraltro, per la quale Turing cita un unico preciso testo: si tratta della conferenza The Mind of Mechanical Man, pubblicata nel 1949 dal neurochirurgo Geoffrey Jefferson.4 L’importanza che viene attribuita a questa posizione avversa è tanto grande che anzitutto un brano viene citato letteralmente:

Solo quando una macchina sarà in grado di scrivere un sonetto o di comporre un concerto grazie ai pensieri e alle emozioni provate, e non alla caduta casuale di simboli, potremo accettare che la macchina sia uguale al cervello, cioè che non solo lo scriva, ma che sappia di averlo scritto. Nessun meccanismo potrebbe provare (e non solo segnalare artificialmente, un facile espediente) piacere per i suoi successi, dolore quando le sue valvole si rompono, essere compiaciuto dall’adulazione, essere rattristato dai suoi errori, essere affascinato dal sesso, essere arrabbiato o depresso quando non può ottenere ciò che vuole.5

C’è da riconoscere che l’attenzione data da Turing a questa obiezione è, con il senno di poi, perfettamente giustificata. Seppure in una formulazione che devìa verso il piano fisiologico (Jefferson è un neurochirurgo e, come vedremo, interpreta il problema come la domanda sull’equivalenza tra una macchina e il cervello), le obiezioni formulate sono esattamente quelle che fanno appello da una parte ad una nobile tradizione filosofica (non per niente Turing denomina la sua contestazione come “argument from consciousness”), dall’altra a quel senso comune che, pur riconoscendo l’indubbio successo delle “macchine” nel far cose, appunto, “meccaniche”, anche raffinatissime, è riluttante ad attribuire realmente ad esse aspetti dell’esistenza che appaiono avere un sottofondo di realtà che al massimo potrà essere simboleggiato o descritto, ma non appunto messo in opera. Quando nel 1984 la Apple inserì nello schermo di errore del Macintosh l’immagine di un computer con la faccia triste, scelse sì un simbolo facile da decifrare, ma di sicuro non illuse nessuno circa la capacità del Macintosh di provare davvero tristezza.

Prima di esaminare la risposta di Turing, vale però la pena esaminare più da vicino la conferenza di Jefferson, che è prevedibilmente molto meno nota della risposta di Turing. Quest’esame è opportuno soprattutto perché la singola citazione che ne fa Turing, benché fedele, fa poco immaginare il completo filo argomentativo. Jefferson prende le mosse dal problema del rapporto tra mente e cervello, dichiarandolo un problema prematuro da affrontare e probabilmente insolubile sulla base di osservazioni sperimentali: ciò non impedisce però di formulare ipotesi che possano guidare la scienza. La domanda fondamentale è allora: può il corpo umano essere descritto come una macchina? Descartes, ricorda Jefferson, aveva sostenuto una risposta positiva, ma contemporaneamente aveva escluso la possibilità di costruire una macchina che eguagliasse un essere umano almeno da due punti di vista: anzitutto, sarebbe stato impossibile riprodurre meccanicamente l’uso del linguaggio; in secondo luogo, poi, nessun meccanismo potrebbe avere coscienza di ciò che è esso stesso. Queste, afferma Descartes, sono le caratteristiche che può conferire solo una mente, che esercita le facoltà superiori che solo gli esseri umani posseggono.

Mentre Jefferson chiaramente simpatizza con la dichiarazione di impossibilità di Descartes, il ricorso ad una mente spirituale (da lui semplicemente qualificata come una “supernatural agency”) gli pare non indispensabile: esso esprime piuttosto una scappatoia per far fronte a fenomeni ancora non spiegati. Bisogna piuttosto tener conto del fatto che il sistema nervoso, più viene studiato e conosciuto, più si mostra straordinariamente complesso. Se le parti elementari del sistema nervoso possono essere paragonate a circuiti elettrici, così non è per l’insieme: “né gli animali né gli esseri umani possono essere spiegati studiando isolatamente i meccanismi nervosi, tanto essi sono complicati dall’apparato endocrino, tanto il pensiero è colorato dall’emozione”.6 Questa è la complessità in cui secondo Jefferson si inserisce anche la possibilità del libero arbitrio. Libertà e determinismo anzi possono essere a seconda del punto di vista due spiegazioni entrambe corrette, analogamente a ciò che avviene in fisica secondo il principio di complementarietà di Niels Bohr.

Ora, il punto decisivo per Jefferson è che i circuiti elettrici delle macchine calcolatrici non hanno la capacità di riprodurre questa complessità: qui il suo punto di partenza è, oltre le descrizione dei primi computer costruiti appunto verso la fine degli anni 40, anche la teorizzazione della “cibernetica”, avvenuta un anno prima da parte di Norbert Wiener.7 Le analogie giustamente messe in luce da quest’ultimo non sono affatto sufficienti, secondo Jefferson, per poter lontanamente sperare in una macchina che riproduca adeguatamente il funzionamento del cervello, e in modo tutto particolare la sua capacità non solo di usare il linguaggio, ma anche di crearlo e modificarlo. È solo a questo punto che Jefferson giunge alla conclusione prima citata. La sua opinione è insomma che l’obiettivo di riprodurre alcune delle attività più semplici del sistema nervoso, in sé certamente raggiungibile, è lontanissimo dalla meta di riprodurre qualcosa che possa essere a giusto titolo chiamato “pensiero”.

La conferenza di Jefferson, benché documentata nei suoi dati di partenza ed equilibrata nelle sue conclusioni, difficilmente sfugge all’impressione di avere un filo del discorso non interamente coerente. Si potrebbe anzitutto obiettare che il passo problematico che egli nota in Descartes sia in fondo lo stesso che egli compie, sostituendo solo all’espressione “mente” quella di “sistema troppo complesso da essere riprodotto meccanicamente”: in entrambi i casi il punto decisivo si troverebbe nella limitata comprensione del funzionamento complessivo. Ma che cosa accadrebbe il giorno che questo limite fosse superato? Il seguito della storia peraltro mostrerà che le analogie, a prima vista decisive, tra macchine calcolatrici e cervello umano svolgeranno un ruolo sì importante, ma solo in seconda battuta. In secondo luogo, rimane difficile capire se la risposta negativa di Jefferson sia relativa al livello della tecnologia del suo tempo, e più radicalmente se egli si accorga che il problema teorico (se una macchina pensante sia teoricamente fattibile) è diverso dalla valutazione dell’attuale conoscenza del sistema nervoso umano da una parte e dell’attuale tecnologia dall’altra. Quando Wiener inserisce i calcolatori nella sua idea di “cibernetica”, la sua base teorica è il fondamentale articolo in cui Turing descrive una “macchina universale” in termini puramente teorici: ma questo retroterra sembra ignorato, o non compreso, da Jefferson.8

Ma non sono queste le obiezioni che Turing rivolge a Jefferson. Egli piuttosto ne mette in luce un carattere filosofico ancora più fondamentale:

Questo argomento [di Jefferson] sembra essere una negazione della validità della nostra prova. Secondo la forma più estrema di questo punto di vista, l’unico modo in cui si potrebbe esser sicuri che la macchina pensi è essere la macchina e sentirsi pensare. Si potrebbero poi descrivere queste sensazioni al mondo, ma naturalmente nessuno sarebbe giustificato a prenderle in considerazione. Allo stesso modo, secondo questo punto di vista, l’unico modo per sapere che un uomo pensa è essere quel particolare uomo. È di fatto il punto di vista solipsista. Può essere il punto di vista più logico da sostenere, ma rende difficile la comunicazione delle idee. È probabile che A creda che “A pensa ma B no”, mentre B crede che “B pensa ma A no”. Invece di discutere continuamente su questo punto, è consuetudine seguire la cortese convenzione secondo cui tutti pensano.9

Insomma: messo alle strette, chi sostiene l’argomento preferirebbe abbandonarlo che cadere esplicitamente nel solipsismo.10

Emozioni di una macchina, emozioni di un’idea

Ma che cosa ne è del problema delle emozioni, che compare chiaramente nella citazione di Jefferson e che (come abbiamo visto) nella sua conferenza occhieggia chiaramente almeno un’altra volta? Turing sembra estrarre questo tema e renderlo un’obiezione diversa, la quinta, in cui raccoglie “arguments from various disabilities”, quelli cioè in cui si obietta che, per quante meraviglie una macchina possa in futuro fare, qualcosa (pensato evidentemente come solo umano) le resterà pur sempre impossibile. L’elenco che Turing cita è abbastanza eterogeneo e lungo, e in esso compare anche “innamorarsi”: il caso per eccellenza dell’emozione. La sua confutazione è anzitutto di ordine generale: tutte queste impossibilità vengono semplicemente dichiarate sulla base dell’induzione, che scientificamente ha un valore molto limitato. Il fatto che finora non esistano macchine capaci di questo o quello non dice nulla sul fatto che non possano esserci in futuro. È possibile che questa sia intesa da Turing come una risposta ad hominem, perché, come già accennato, Jefferson stesso all’inizio della sua conferenza aveva decisamente contestato la cosiddetta induzione “baconiana” come fondamento della scienza.11

Dopo questa confutazione di principio, diverse disabilities vengono prese in considerazione: per esempio, dire che le macchine non sono capaci di un comportamento vario come quello degli esseri umani equivale a costatare la limitatezza del loro “magazzino” (storage: il termine antropomorfico memory non era ancora di uso comune): un’affermazione dunque solo fattuale e contingente. Curiosamente, però, Turing non dedica nessuna osservazione particolare alla disability dell’impossibile innamoramento: il che lascerebbe gran parte della forza del discorso di Jefferson intatta. C’è però una rapidissima osservazione finale che mette sulla buona strada:

Le critiche che stiamo considerando sono spesso forme mascherate dell’argomento della coscienza; di solito, se si sostiene che una macchina può fare una di queste cose e si descrive il tipo di metodo che la macchina potrebbe usare, non si fa molta impressione. Si pensa che il metodo (qualunque esso sia, perché deve essere meccanico) sia piuttosto banale. Confronta la parentesi nella dichiarazione di Jefferson citata.12

L’osservazione è formulata in modo così sintetico da risultare un po’ enigmatica, ma chiarirla è cruciale. Sostanzialmente Turing sta dicendo che una lacuna nelle possibilità di una macchina viene colmata ideando un metodo (un procedimento, un algoritmo, potremmo anche dire): ma appena questo metodo viene appunto conosciuto, l’aura di “umanità” che prima avvolgeva quella certa operazione scompare. È questo che spontaneamente Jefferson fa quando opera una distinzione tra “provare” un sentimento e “segnalarlo artificialmente”. Si tratta quindi, sostiene Turing, sempre del medesimo argomento della coscienza: anche se una macchina mostrasse tutti i sintomi dell’innamoramento, questo non sarebbe tale agli occhi del critico perché tale sarebbe solo il suo proprio innamoramento, che egli sente in sé. Che le “emozioni artificiali” siano impossibili è quindi da questo punto di vista una tautologia, perché appena qualcosa è artificiale, non meriterebbe più i nomi che si applicano a fenomeni umani. Il punto è però, secondo Turing, che per coerenza bisognerebbe giungere a sostenere che le uniche qualità umane siano le mie.

Sullo sfondo di questa rapida annotazione vi è però qualcosa di ancora più decisivo, che nell’articolo del 1950 è sottaciuto. Per rendersene conto bisogna fare un passo indietro e leggere ciò che Turing scriveva nel 1948, in un rapporto dal titolo Intelligent Machinery, rimasto inedito per un ventennio.13 Il testo è in numerosi aspetti parallelo all’articolo di due anni più tardi. Per esempio, anche qui vi è un elenco di obiezioni contro la possibilità di macchine intelligenti, a cui viene data risposta (mancano ovviamente le obiezioni che derivano dalla conferenza di Jefferson). Le prime due obiezioni invece sostanzialmente coincidono (in ordine invertito): la prima consiste nella “non volontà di ammettere la possibilità che l’umanità possa avere rivali nelle sue capacità intellettuali”, la seconda nella “credenza religiosa che ogni tentativo di costruire tali macchine è una sorta di irriverenza prometeica”. Rispetto all’articolo del 1950, che risponde in termini discretamente dettagliati (soprattutto all’“argomento teologico”), il rapporto del 1948 semplicemente le scarta come irrilevanti, ma così facendo pone un problema di formidabile importanza, ripreso più tardi con dettaglio. Scrive Turing:

Le obiezioni (a) e (b), essendo puramente emozionali [emotional], non hanno bisogno di essere confutate. Se si ritiene necessario confutarle, c’è poco da dire che possa sperare di convincere, anche se la produzione effettiva delle macchine avrebbe probabilmente un certo effetto. Nella misura in cui siamo influenzati da queste argomentazioni, siamo destinati a sentirci piuttosto a disagio nei confronti dell’intero progetto, almeno per il momento. Questi argomenti non possono essere del tutto ignorati, perché l’idea di “intelligenza” è di per sé emozionale piuttosto che matematica.14

L’affermazione cruciale è ovviamente l’ultima. Ma che cosa significa affermare che l’idea di “intelligenza” è emozionale? Tanto più che questa qualifica è opposta ad un’ipotetica idea matematica, evidentemente Turing intende dire che non è esattamente definibile, ma piuttosto dipende da uno stato d’animo di chi la giudica. L’ultima pagina del rapporto è dedicata a chiarire in che senso ciò avviene:

La misura in cui riteniamo che qualcosa si comporta in modo intelligente è determinata tanto dal nostro stato mentale e dalla nostra formazione quanto dalle proprietà dell’oggetto in esame. Se siamo in grado di spiegare e prevedere il suo comportamento o se sembra che non ci sia un piano sottostante, abbiamo poca tentazione di immaginare intelligenza. Con lo stesso oggetto, quindi, è possibile che una persona lo consideri intelligente e un’altra no; la seconda avrebbe scoperto le regole del suo comportamento.15

Insomma: dato che il concetto di “intelligenza” viene attribuito a ciò che non appare una semplice esecuzione di regole, allora comprendere esattamente che cosa avviene in un processo (cioè essere in grado di descrivere le regole in base a cui esso si è svolto) significa di per sé cessare di giudicarlo intelligente, o almeno, come con elegante understatement scrive Turing, avere “poca tentazione” di chiamarlo tale: come quando aver scoperto il trucco non ci fa più considerar qualcosa come magico.16 Tale osservazione, che sembra ben corrispondere al buon senso, può essere interpretata con due sfumature differenti. La prima è quella rassicurante: se ne può infatti concludere che per definizione nessuna macchina potrà mai effettuare processi simili a quelli delle facoltà superiori umane: ovvero, usando il lessico corrente, nessuna macchina sarà mai “intelligente”, o (con quella che in Turing pare solo una variazione lessicale) nessuna macchina potrà mai “pensare”. Il suo funzionamento sarà infatti meccanico, e anche se il risultato (come Turing nel 1950 esplicitamente scriverà) può suscitare sorprese perfino in chi la ha programmata, questa sorpresa coesiste con la cognizione delle sue norme di comportamento. Ma ovviamente Turing non sta pensando a questa applicazione, visto che l’intero suo rapporto (come pure l’articolo seguente) intende suggerire il contrario. Non rimane dunque che applicare l’osservazione nella direzione opposta: concludere cioè che l’intelligenza o il pensiero che gli esseri umani “emotivamente” attribuiscono a sé stessi è l’effetto di un’ignoranza delle regole in base alle quali essi funzionano.17

Ovviamente, affermare che quella di intelligenza è un’idea “emozionale” non significa affatto affermare che l’intelligenza sia un’emozione. Significa però sì affermare che l’idea di “intelligenza artificiale” non è così diversa da quella di “emozione artificiale”: in entrambi i casi si stanno prendendo le mosse da processi che comunemente sono giudicati tipicamente umani. Ma nel momento in cui il loro funzionamento viene proiettato in regole chiare, che in quanto tali possono essere seguite da una macchina, esse rimangono disincantate e paiono svuotarsi del loro senso personale. Poco più tardi Turing espresse ancora più chiaramente questa idea: fu durante un dibattito radiofonico registrato per la BBC il 10 gennaio 1952 e trasmesso quattro giorni dopo.18 Il dibattito era coordinato dal filosofo morale Richard Braithwaite e oltre a Turing parteciparono il già noto Geoffrey Jefferson e il matematico Max Newman, prima ispiratore e poi collaboratore di Turing stesso. Dopo che Turing ha formulato ipotesi su come un calcolatore possa usare l’analogia nei propri calcoli, Braithwaite esprime la propria perplessità sul fatto che una macchina possa effettivamente eseguire tali processi. Ecco l’illuminante risposta di Turing:

Ho certamente lasciato molto all’immaginazione. Se avessi dato una spiegazione più lunga avrei potuto far sembrare più certo che ciò che stavo descrivendo fosse fattibile, ma probabilmente lei si sentirebbe piuttosto a disagio per tutto questo, e probabilmente esclamerebbe con impazienza: “Be’, sì, vedo che una macchina potrebbe fare tutto questo, ma non lo chiamerei pensare”. Non appena si riesce a vedere la causa e l’effetto che si realizzano nel cervello, si ritiene che non si tratta di pensiero, ma di una specie di lavoro stupido e ripetitivo [unimaginative donkey-work]. Da questo punto di vista si potrebbe essere tentati di definire il pensiero come l’insieme di “quei processi mentali che non comprendiamo”. Se questo è vero, allora creare una macchina pensante significa creare una macchina che fa cose interessanti senza che si capisca bene come vengono fatte.19

Se non bisogna sopravvalutare un’annotazione orale improvvisata, non se ne può neppure misconoscere la coerenza con il resto del discorso. Turing afferma che l’attribuzione del “pensiero” ad una macchina non dipende solo dalla riproduzione di processi simili a quelli compiuti dalla mente umana, ma anche dall’effetto incantatorio che tale processo svolto da una macchina può effettuare. In mancanza di questo, altrimenti, la parola “pensiero” con il suo carico emotivo semplicemente non verrebbe più usata, o comunque non verrebbe più percepito nessun aspetto problematico nell’idea di una macchina “pensante”, tanto quanto (potremmo dire) non suscita nessun disagio l’idea che esistano le automobili, macchine “semoventi”, che per di più possono spostarsi molto più velocemente di qualsiasi essere umano. Insomma: ciò che appare ripetitivo, prevedibile, facilmente meccanizzabile, non viene denominato “pensiero”, a meno che il termine stesso “pensiero” non muti radicalmente di significato.20

Ciò che abbiamo detto ci consente di connettere più chiaramente alcuni punti nella posizione di Turing: la confutazione da lui presentata nei confronti dell’argomento della coscienza vale tale e quale anche riguardo all’estraniante concetto di “emozione artificiale”. Anche l’idea di “emozione” è emozionale e per essa vale esattamente quanto detto nei riguardi del pensiero (lo abbiamo intravisto nella sintetica e un po’ enigmatica annotazione dell’articolo del 1950): negare che quanto avviene in una macchina sia un’emozione condurrebbe, per coerenza, ad una sorta di solipsismo emotivo, all’affermazione che solo le proprie sono emozioni, quelle cioè che vengono vissute dall’interno, senza che quindi vi sia la possibilità di vederne direttamente regole e logica. Anche in rapporto alle emozioni potrebbe dunque essere concepito un analogo imitation game. Anche se Turing non vi fa alcun cenno (e probabilmente il tema direttamente neppure gli interessa molto), non è certo la prima volta nella storia della filosofia che si suggerisce l’idea che anche gli affetti possano essere descritti ordine geometrico.

È in effetti molto significativo che subito dopo le considerazioni sull’“intelligenza come concetto emozionale” e in chiusura del rapporto del 1948, Turing propone la sua prima versione dell’imitation game. A differenza di quanto avviene nella nota descrizione di due anni dopo, qui l’esempio scelto, indubbiamente più a portata di mano, riguarda il gioco degli scacchi: una volta stabilito che non è così difficile scrivere un programma che giochi a scacchi “non pessimamente” (Turing lo aveva effettivamente fatto), un principiante farebbe difficoltà a capire se sta giocando con un altro principiante o con tale programma. Ma in questo modo, la tattica di gioco degli scacchi è disincantata e trasformata in un insieme di regole di gioco efficace. L’unica alternativa al giudizio solipsistico secondo cui anche il giocatore è una macchina è allora ritenere anche la macchina un giocatore.

Il disincantamento e il suo possibile limite

Possiamo a questo punto, prima di porci un’ultima decisiva questione, tentare una sintesi dell’articolo di Turing del 1950 leggermente diversa da quella che abbiamo presentato all’inizio. La domanda “può una macchina pensare?” è insensata, tanto quanto la domanda “può una macchina amare?”. “Pensare” e “amare” sono infatti due termini che vengono usati non solo per indicare ciò che soggiace a certe manifestazioni percepibili, ma anche per suggerire che ciò che in essi avviene sia possibile solo agli esseri umani: sono termini cioè che esprimono la protesta emotiva di una differenza umana rispetto al resto dell’universo. Le due domande allora sono riducibili a quest’unica: “può una macchina fare ciò che è impossibile ad una macchina?”: una questione ovviamente poco interessante. L’unico modo per rendere la discussione utile è sostituire questa domanda con un’altra: può una macchina avere le stesse manifestazioni grazie a cui diciamo che un essere umano pensa, o ama? Ciò in realtà sarà sempre più possibile solo se si comprenderà qual è la logica di queste manifestazioni, man mano cioè che si sarà in grado di descriverle in procedimenti esatti (che, peraltro, possono anche includere una componente di casualità): esattamente come chiedersi se una macchina possa giocare bene a scacchi significa chiedersi se si sarà in grado di comprendere che cosa significa giocare bene a scacchi, e descrivere un buon gioco di scacchi in un insieme di regole.

La posta in gioco nella nuova domanda è insomma nient’altro che la comprensione degli esseri umani. Ma (purtroppo o per fortuna) comprendere in questo caso significa anche disincantare gli esseri umani riguardo alle loro capacità: più esse sono in questo senso comprese, meno esse diventano esclusivamente loro. È quindi certo possibile che un giorno si inizi a dire che «le macchine pensano» (Turing lo ritiene anzi più che probabile): ma ciò avverrà solo perché il concetto di pensiero sarà appunto disincantato, e la carica emotiva un tempo associata a tale parola sarà dissolta.21

Ma questa autocomprensione degli esseri umani sarà da valutare come un successo? Turing evidentemente è convinto di sì, e ci sono ottimi motivi per simpatizzare con lui. Abbiamo prima notato come è possibile che egli usi come risposta ad hominem nei confronti di Jefferson il rifiuto di quest’ultimo di un’idea dell’induzione come metodo della scienza. Ciò che ci pare invece probabilissimo è che questo rifiuto viene da lui desunto e reso non solo una confutazione contro una singola contestazione riguardo alla possibilità di macchine che imitino gli esseri umani, ma più in generale la via libera e l’incoraggiamento nei confronti di una nuova ricerca. Le ipotesi sono insomma in Turing quelle che consentono di creare oggetti nuovi, senza essere paralizzati da una loro apparente implausibilità:

L’opinione popolare secondo cui gli scienziati procedono inesorabilmente da un fatto ben stabilito all’altro, senza mai essere influenzati da congetture non dimostrate, è del tutto errata. Purché si chiarisca quali sono i fatti dimostrati e quali le congetture, non si possono far danni. Le congetture sono di grande importanza giacché suggeriscono utili linee di ricerca.22

Turing, insomma, è ben lontano dall’affermare scientificamente che esisteranno macchine capaci di simulare ciò che chiamiamo “pensiero”: crede però che i tentativi in proposito devono proseguire ed essere ambiziosi. Questa fiducia molto probabilmente viene in lui formulata proprio prendendo a prestito l’idea che il suo avversario Jefferson usa per qualificare il metodo scientifico.23

C’è però un’ultima domanda cruciale. Comprendere un’attività fino ad un certo momento intesa come tipicamente umana significa, abbiamo detto, disincantarla, dissolvere il suo significato emotivo. C’è a prima vista qualcosa d’inquietante nel fatto che comprendere un concetto avvolto di emozione significa raffreddarlo e quasi banalizzarlo: ma non è strutturalmente qualcosa di molto diverso da ciò che Aristotele dice della filosofia stessa, che prende le mosse dalla “meraviglia” per poi alla fine annullarla. La vera questione è piuttosto: si tratta di un disincantamento totale? Non necessariamente. Che il vivere dall’interno pensiero ed emozioni abbia un senso residuo non viene affatto escluso da Turing. Dopo aver confutato nell’articolo del 1950 l’obiezione principale di Jefferson, egli si affretta a precisare:

Non voglio dare l’impressione di pensare che non ci sia alcun mistero sulla coscienza. C’è, per esempio, una sorta di paradosso legato a qualsiasi tentativo di localizzazione. Ma non credo che questi misteri debbano necessariamente essere risolti prima di poter rispondere alla domanda di cui ci occupiamo in questo articolo.24

Che insomma vi sia un senso in cui pensiero ed emozioni siano “proprie” ad un essere umano in un modo che non si potrebbe attribuire ad una macchina – sembra di capire – è secondo Turing ben possibile. Il tentativo di “localizzazione” non è in effetti nient’altro che l’ipotesi su qualcosa di umano che non sia soltanto corpo (un tema che pure Jefferson aveva affrontato, tentando un po’ goffamente di correggere l’ipotesi di Descartes della ghiandola pineale). Del resto, la domanda basata sull’imitation game è dichiarata come “strettamente connessa” a quella originaria sulla capacità di “pensiero” delle macchine, non “equivalente”. Anche quando Turing la cita come un “criterio per il ‘pensiero’”, la parola “pensiero” viene messa tra virgolette, e nel dibattito del 1952, più chiaramente ancora, dichiara che ciò che egli propone potrebbe essere chiamato “una prova per vedere se la macchina pensa”, ma che è meglio evitare questa formulazione.25 Ciò ha una conseguenza rilevante anche riguardo al modo con cui i testi di Turing sono comunemente classificati: chiamarli fondatori per l’“intelligenza artificiale” non è certo abusivo, ma implica il dislocamento in una consuetudine linguistica che è diversa da quella che lui stesso consapevolmente usa. Da ciò che abbiamo visto, lo scarto decisivo non si trova però tanto in un significato analogico di “pensiero”, quanto nel senso differente, quasi “affettivo”, in cui la macchina può o non può essere ritenuta soggetto dei suoi processi.

In questo senso, c’è dunque una barriera evidentemente insuperabile nella possibilità di “emozioni artificiali”. Il problema che le riguarda, come abbiamo visto, non è di per sé affatto diverso da quello che concerne il “pensiero artificiale”. Ma quella che, stando alla forma del discorso di Turing, necessariamente fa eccezione, è proprio l’emozione della soggettività, quella che fa sentire come proprio il pensiero, e ogni altra emozione. Qualsiasi imitation game che la riguardasse (una macchina sa di esistere?) imporrebbe in questo caso un regresso all’infinito, perché questa sorta di sentimento di sé rimarrebbe in ogni caso sfuggente: come correttamente dice Turing, potrebbe essere accertato solo essendo quella macchina. Tutto ciò non dimostra ancora che questo sentimento abbia qualcosa di irriducibile, ma almeno che la sua consistenza e il suo senso devono essere studiati in altro modo: giacché probabilmente esso si identifica con l’esistenza stessa dell’essere umano, la quale è, in questo senso, tutt’altro che ovvia, benché, ancora parafrasando Turing, faccia parte della buona creanza supporre che gli esseri umani esistano.

Il risultato ha insomma, come accade spesso nelle grandi rivoluzioni culturali, qualcosa di paradossale. Nel momento stesso in cui Turing lancia un grande progetto scientifico e sociale di disincantamento dell’essere umano, contemporaneamente pone in filigrana il problema della consistenza ultima di un’emozione umana che forse non si lascia completamente annullare.

Questo testo ha origine da una lezione tenuta l’8 febbraio 2022 all’Università di Roma Tor Vergata ed è stato pubblicato in una versione più breve come «Intelligenza artificiale, emozioni artificiali? Su uno snodo nel pensiero di Alan Turing», in Paolo Quintili (curatore), Mind-Body Problem. Mente, corpo, emozioni e passioni, Mimesis, Milano 2024, pp. 127-145.


  1. Per avere un quadro dello sviluppo di questi temi negli ultimi anni si può consultare l’“International Journal of Synthetic Emotions”, che ha come oggetto “the main issues relevant to the generation, expression, and use of synthetic emotions in agents, robots, systems, interfaces, and devices” (https://www.igi-global.com/journal/international-journal-synthetic-emotions/1144). La rivista è stata attiva dal 2010 al 2022. Nel 2023 essa è stata però rinominata “Journal of Affective Computing and Human Interfaces”, individuando i suoi temi in “agents, robots, devices and systems that can recognize, interpret, process, and simulate human affection, sentiments and emotions along with ways of bringing together emotion artificial intelligence and other affective technologies to make people’s lives better” (https://www.igi-global.com/journal/journal-affective-computing-human-interfaces/317944). È interessante notare come il fuoco sia slittato dal tema abbastanza speculativo delle emozioni artificiali a quello più operativo del riconoscimento delle emozioni umane e della loro simulazione. ↩︎

  2. A.M. Turing, Computing Machinery and Intelligence, “Mind”, a. LIX, n. 236, 1950, pp. 433-460; ora in A.M. Turing, The Essential Turing. Seminal Writings in Computing, Logic, Philosophy, Artificial Intelligence, and Artificial Life plus The Secrets of Enigma, a cura di J.J. Copeland, Oxford University Press, New York, 2004 (qui si trovano raccolti anche altri due testi che prenderemo in considerazione e ulteriori pure molto importanti). Quando citeremo, da qui e da altri testi, la traduzione si intenda sempre nostra. Per avere un quadro del dibattito attuale è utile G. Oppy, D. Dowe, The Turing Test, “The Stanford Encyclopedia of Philosophy” (Winter 2021 Edition), a cura di E.N. Zalta, https://plato.stanford.edu/archives/win2021/entries/turing-test/. Per una prima contestualizzazione dell’articolo del 1950 nel complesso della produzione di Turing, vedi B.J. Copeland, The Turing Test, “Mind and Machines”, vol. 10, 2000, https://doi.org/10.1023/A:1011285919106, pp. 519-539. ↩︎

  3. Un punto cruciale consiste nel chiarire in che senso la domanda originaria sia sfuggente, e dunque perché Turing la sostituisca con un’altra. Questo sarà uno dei punti fondamentali che tenteremo di chiarire, e nel quale vedremo come la questione delle “emozioni” giochi un ruolo fondamentale. ↩︎

  4. G. Jefferson, The Mind of Mechanical Man, “British Medical Journal”, vol. I, 1949, pp. 1106-1110 (25 giugno). Lo stretto nesso tra l’articolo del 1950 e le obiezioni di Geoffrey Jefferson è stato giustamente messo in evidenza da Bernardo Gonçalves (Can machines think? The controversy that led to the Turing test, “AI & Society”, 2022, https://doi.org/10.1007/s00146-021-01318-6, pp. 1-12). La sua tesi fondamentale, secondo cui il punto critico fondamentale si trova nell’idea di Jefferson secondo cui il comportamento sessuale è determinato dagli ormoni, ci pare però estremamente fragile, per almeno due motivi: in primo luogo perché l’imitation game differisce dal gioco originariamente presentato proprio perché espunge ogni riferimento al sesso dei partecipanti; in secondo luogo perché in nessun luogo Turing contesta le osservazioni fisiologiche di Jefferson: il tono ipotetico con cui egli parla dell’“anima” come obiezione alla possibilità di “pensare” da parte delle macchine suggerisce al contrario che, almeno euristicamente, egli stia interpretando l’essere umano in maniera fisiologica. ↩︎

  5. A.M. Turing, Computing Machinery and Intelligence, cit., pp. 445-446, ora p. 451; sta citando G. Jefferson, The Mind of Mechanical Man, cit., p. 1110. Si tratta praticamente della conclusione dell’articolo, prima di alcune osservazioni finali ricapitolative. ↩︎

  6. G. Jefferson, The Mind of Mechanical Man, cit., p. 1107. ↩︎

  7. N. Wiener, Cybernetics. Or Control and Communication in the Animal and the Machine, MIT Press, Cambridge (MA), 1948. ↩︎

  8. Tanto più che la parola “cibernetica”, dopo una breve stagione di grande successo, è per motivi comprensibili passata di moda (dopo un picco raggiunto nel 1967 il suo uso comincia a precipitare, come documenta il Books Ngram Viewer di Google), vale la pena osservare quanto questo punto fosse colto con precisione da Wiener: “Abbiamo già parlato della macchina da calcolo, e di conseguenza del cervello, come di una macchina logica. Non è affatto banale considerare la luce gettata sulla logica da tali macchine, sia naturali che artificiali. Abbiamo già detto che la machina ratiocinatrix non è altro che il calculus ratiocinator di Leibniz con un motore al suo interno; e come la logica matematica moderna inizia con questo calcolo, così è inevitabile che il suo attuale sviluppo ingegneristico getti una nuova luce sulla logica. La scienza di oggi è operativa, cioè considera ogni affermazione come essenzialmente interessata a possibili esperimenti o processi osservabili. In base a ciò, lo studio della logica deve ridursi allo studio della macchina logica, sia essa nervosa o meccanica, con tutte le sue ineliminabili limitazioni e imperfezioni” (op. cit, p. 147). Sottolineiamo ancora che queste osservazioni sono state scritte prima dei testi di Turing che stiamo considerando e il loro riferimento è a A.M. Turing, On Computable Numbers, with an Application to the Entscheidungsproblem, “Proceedings of the London Mathematical Society”, s. 2, vol. 42, n. 1, 1937, pp. 230-265; ora in The Essential Turing, cit., pp. 58-90, dove sono pubblicate anche le non poche errata corrige di dettaglio che seguirono. ↩︎

  9. A.M. Turing, Computing Machinery and Intelligence, cit., p. 446, ora p. 452. ↩︎

  10. Si osservi che Turing è consapevole che solo la forma “più estrema” della critica cade nel solipsismo: il modo più semplice per evitare quest’ultimo sarebbe per esempio dichiarare che qualcosa per essere chiamato “pensiero” deve non solo mostrare certe capacità, ma anche essere attuato da un organismo biologico della specie umana. Il problema per Turing è evidentemente che questa limitazione ad hoc, o una simile, non contribuisce per nulla all’avanzamento della discussione, ma stabilisce semplicemente una convenzione linguistica sullo sfondo della quale vi è, come vedremo, una presa di posizione “emotiva”. Giova però anche notare che simile scetticismo riguardo all’uso del termine “pensiero” perdurerà anche all’interno dell’informatica: ancora nel 1984 Edsger Dijkstra (notoriamente molto critico verso l’espressione antropomorfica “intelligenza artificiale”) affermerà che se le macchine sappiano pensare “è una domanda di cui ora sappiamo che è rilevante tanto quanto la domanda se i ‘sottomarini sappiano nuotare’” (The threats to computing science, EWD 898, https://www.cs.utexas.edu/users/EWD/ewd08xx/EWD898.PDF, p. 2: in maniera sbrigativa Dijkstra attribuisce però la domanda originaria a Turing, cosa chiaramente scorretta). L’osservazione in realtà era stata formulata in maniera praticamente identica da Mario Bunge che paragonava il “pensiero artificiale” dei computer alla “camminata artificiale” delle automobili (Do Computers Think?, “The British Journal for the Philosophy of Science”, vol. 7, n. 26 e 27, 1956, pp. 139-148 e 212-219: qui 216): ma è interessante notare come essa possa aver goduto di sostegno anche tra i più direttamente coinvolti esattamente nei campi che dall’esterno potevano essere definiti pertinenti all’“intelligenza artificiale”. ↩︎

  11. Il passo merita di essere citato per esteso. Jefferson in realtà si contenta di riportare con approvazione un passaggio che attribuisce a John Hughlings Jackson (a lui ben noto perché decisivo nei primi passi della neurologia): “È un’illusione popolare molto diffusa che l’investigatore scientifico abbia una sorta di obbligo morale di astenersi dall’andare oltre la generalizzazione dei fatti osservati, che viene assurdamente chiamata ‘induzione baconiana’ [sic: le virgolette devono racchiudere solo la seconda parola]. Ma chiunque abbia una conoscenza pratica del lavoro scientifico sa che chi si rifiuta di andare oltre i fatti il più delle volte non arriva neppure ai fatti; e chiunque abbia studiato la storia della scienza sa che in essa quasi tutti i grandi passi in avanti sono stati fatti con l’‘anticipazione della Natura’, cioè escogitando ipotesi che, anche se non [sic: la negazione è da espungere] verificabili, spesso avevano ben poche basi di partenza”. Jefferson non indica il luogo citato (che è Remarks on the Diagnosis and Treatment of Brain Diseases, “British Medical Journal”, vol. 2, 1888, pp. 59-63 (14 luglio), pp. 111-117 (21 luglio), qui 61; ora in Selected Writings, vol. 2, Basic Book, New York 1958, pp. 365-392, qui 372). In realtà però l’attribuzione è abusiva, perché il brano in Hughlings Jackson è a sua volta dichiaratamente una citazione: il testo proviene dal biologo Thomas Henry Huxley (Science, in Thomas Humphry Ward (a cura di), The Reign of Queen Victoria. A Survey of Fifty Years of Progress, vol. 2, Smith, Elder and Co. / J.B. Lippincott , London / Philadelphia 1887, pp. 322-387, qui 336-337; ristampato come The Progress of Science, in Collected Essays, vol. I, MacMillan and Co., Londra 1904, pp. 42-129, qui 62). Benché probabilmente quello di Turing sia un argomento ad hominem, bisogna però notare che il ruolo (negativo) che egli dà all’induzione è diverso rispetto a Jefferson: in questi, quasi popperianamente, l’induzione viene contestata per rivendicare il ruolo fondamentale della libera creazione di ipotesi di ricerca per comprendere la natura esistente; in Turing invece la controparte è la fiducia nei confronti del progresso dell’autoconoscenza degli esseri umani, e quindi della tecnologia. Su questo torneremo in conclusione. ↩︎

  12. A.M. Turing, Computing Machinery and Intelligence, cit., p. 449-450, ora p. 455. ↩︎

  13. A.M. Turing, Intelligent Machinery, 1948, https://turingarchive.kings.cam.ac.uk/unpublished-manuscripts-and-drafts-amtc/amt-c-11; ora in The Essential Turing, cit., pp. 410-432. In realtà si potrebbe fare un ulteriore piccolo passo indietro e giungere a A.M. Turing, Lecture on the Automatic Computing Engine (1947), ora in The Essential Turing, cit., pp. 378-398. Si tratta di un testo interessante perché in esso già compaiono in forma embrionale alcune obiezioni (con relative confutazioni) dell’idea di intelligenza meccanica: la macchina può portare a termine solo i processi per cui è programmata, e manca inoltre di adattabilità. Mentre questa seconda obiezione viene respinta sostanzialmente ritenendola basata sui limiti di memoria (storage, come si diceva) delle macchine dell’epoca, alla prima viene risposto chiamando in causa la possibilità di una macchina di modificare le sue stesse istruzioni: un’idea che appariva in quegli anni particolamente promettente. Su queste prime riflessioni di Turing, così come sull’intero suo retroterra logico-matematico, ha eccellentemente attirato l’attenzione T. Numerico, Alan Turing e l’intelligenza delle macchine, FrancoAngeli, Milano 2005. ↩︎

  14. A.M. Turing, Intelligent Machinery, cit., p. 3[3], ora p. 411. ↩︎

  15. A.M. Turing, Intelligent Machinery, cit., p. 37[42], ora p. 431. ↩︎

  16. Questo esempio sarà usato molto più tardi da Marvin Minsky per esprimere la stessa idea, evidentemente ispirata più o meno consapevolmente da Turing: “La nostra mente contiene processi che ci permettono di risolvere problemi che consideriamo difficili. ‘Intelligenza’ è il nome che diamo a qualsiasi siffatto processo che ancora non comprendiamo. Ad alcuni questa ‘definizione’ non piace, perché il suo significato è condannato a cambiare continuamente man mano che comprendiamo di più la psicologia. Ma dal mio punto di vista è proprio così che deve essere, perché il concetto stesso di intelligenza è come un trucco da prestigiatore. Come il concetto di ‘regioni inesplorate dell’Africa’, scompare non appena lo scopriamo” (The Society of Mind, Simon & Schuster, New York 1987, p. 71). ↩︎

  17. Si osservi che il significato dell’aggettivo “emozionale” è dunque identico in Turing sia quando viene usato per qualificare le obiezioni contro le macchine pensanti, sia quando viene usato per qualificare il concetto corrente di intelligenza. Alla base vi è infatti sempre l’attribuzione agli esseri umani (cioè a sé stessi) di una qualità con doti uniche, che non si lascerebbero scomporre in processi elementari descrivibili come regole di calcolo. Nel leggere i testi di Turing degli anni 1948-1952 non bisogna dimenticare che egli nel 1937 era stato l’autore dell’epocale articolo On Computable Numbers, cit., in cui aveva descritto una macchina “universale” e suggerito così che tutto ciò che intuitivamente è qualificabile come “calcolabile” può essere effettivamente calcolato con una semplicissima macchina programmabile. Questo sfondo va tenuto presente per comprendere la descrizione del modo con cui comunemente si assegna la qualifica “intelligente”. ↩︎

  18. A.M. Turing, R. Braithwaite, G. Jefferson, M. Newman, Can Automatic Calculating Machines Be Said to Think? (1952), in The Essential Turing, cit., pp. 487-493. ↩︎

  19. A.M. Turing, R. Braithwaite, G. Jefferson, M. Newman, Can Automatic Calculating Machines Be Said to Think? (1952), cit., p. 500. ↩︎

  20. Diane Proudfoot (Rethinking Turing’s Test, “The Journal of Philosophy”, vol. 110, n. 7, 2013, https://doi.org/10.5840/jphil2013110722, pp. 391-411; la medesima tesi è da lei ripresa in successivi articoli, il più recente dei quali è An Analysis of Turing’s Criterion for ‘Thinking’, “Philosophies”, vol. 7, n. 124, 2022, https://doi.org/10.3390/philosophies7060124) ha sostenuto un’interpretazione della prova di Turing in cui gioca un ruolo centrale l’identificazione dell’intelligenza come concetto emozionale. Mentre appaiono convincenti le sue osservazioni critiche alle interpretazioni correnti (in particolare quella comportamentista), meno si può dire della sua proposta. Proudfoot identifica il “concetto emozionale” con un “response-dependent concept”. Il problema è che in questo modo il punto specifico dell’idea di Turing, e cioè che gli esseri umani chiamano “intelligenza” ciò che non capiscono (ancora) è perduto o almeno fortemente sottovalutato. Turing non afferma affatto che (così la traduzione di Proudfoot) “x is intelligent (or thinks) if, in an unrestricted computer-imitates-human game, x appears intelligent to an average interrogator”: afferma piuttosto che x appare ad y “intelligente” se questi riconosce nel primo risposte mediamente indistinguibili da quelle di un essere umano e non sa sulla base di quali procedimenti le produce. Ha quindi poco senso interrogarsi sulle condizioni “ideali” della prova di Turing: la condizione è secondo lui semplicemente che i giudici siano sufficientemente ignari. È quindi giusto sostenere (come fa Proudfoot) che Turing sostituisce la domanda originaria “le macchine possono pensare?” con quella relativa all’imitation game perché ritiene che “intelligenza” sia un concetto emotivo: ma questo accade perché l’intelligenza è secondo Turing per definizione inconoscibile (giacché quando viene conosciuta non è più chiamata “intelligenza”, o la parola stessa ha mutato di significato). In termini spinoziani, il concetto di intelligenza è per Turing niente più un asylum ignorantiae, sebbene ovviamente abbia una sua funzione nell’uso comune finché appunto la non conoscenza perdura: cosa che Turing (con ironia inglese) attribuisce anche a sé stesso quando nel 1952 afferma che l’unica definizione che sa dare di pensiero è “una specie di ronzio dentro alla mia testa”. È per questo che nel 1950 Turing aveva potuto scrivere (coerentemente) che la domanda originaria è meaningless: che cosa potrebbe significare chiedersi se le macchine possano avere una specie di ronzio dentro alla testa? Michael Wheeler (Deceptive Appearances: the Turing Test, Response‑Dependence, and Intelligence as an Emotional, “Minds and Machines”, vol. 30, n. 4, 2020, https://doi.org/10.1007/s11023-020-09533-8, pp. 513-532) intende completare e correggere l’interpretazione di Proudfoot: la “response-dependence” andrebbe intesa non rispetto al concetto di intelligenza (come implicitamente fa Proudfoot), ma rispetto alla proprietà dell’intelligenza: la reazione dei giudici individuerebbe cioè gli oggetti che posseggono in sé una certa proprietà. Ma in tutta la sua analisi l’idea di Turing secondo cui la parola “intelligenza” è il segnaposto per un processo non ancora compreso è ancor più emarginata, con la conseguenza che a suo parere “l’esperto di intelligenza artificiale”, al contrario del profano, “sbaglia” nel giudicare non intelligenti le macchine: una conseguenza la cui palese implausibilità potrebbe essere eliminata solo spiegando in che modo conoscenze addizionali possano portare ad un giudizio errato, e che comunque renderebbe l’intero discorso di Turing, indubbiamente “esperto di intelligenza artificiale”, una sorta di sgargiante antinomia del mentitore. ↩︎

  21. Non c’è neppure bisogno di dire che, nella variante con l’aggettivo “intelligente”, la previsione sociolinguistica di Turing (peraltro marginale nel suo discorso) si è perfettamente realizzata, e grosso modo nei tempi da lui immaginati: nel suo articolo del 1950 prevede che “alla fine del secolo l’uso delle parole e l’opinione pubblica saranno talmente cambiati che si potrà parlare di pensiero [= intelligenza] delle macchine senza aspettarsi di essere contraddetti” (A.M. Turing, Computing Machinery and Intelligence, cit., p. 442, ora p. 449). C’è piuttosto da notare, a conferma della correttezza della sua intuizione sul valore “emotivo” del termine “intelligenza”, che la rivendicazione di un carattere “intelligente” delle macchine è stato un bersaglio mobile nella seconda metà del Novecento. Si veda per esempio il primo manuale reperibile del LISP (la cui importanza in questo campo non ha bisogno di essere sottolineata), che esordiva elencando così i suoi campi di applicazione: “Il linguaggio LISP è progettato primariamente per processare dati simbolici. È stato usato per calcoli simbolici nel calcolo differenziale e integrale, nella teoria dei circuiti elettrici, nei giochi e altri campi dell’intelligenza artificiale” (J. McCarthy, P.W. Abrahams, D.J. Edwards, T.P. Hart, M.I. Levin, LISP 1.5 Programmer’s Manual, MIT Press, Cambridge (MA) 1962, p. 9): la maggior parte di queste applicazioni, proprio perché i loro meccanismi sono stati descritti, nella coscienza comune oggi non apparirebbero più pertinenti all’“intelligenza” artificiale, tanto poco quanto lo sembra una calcolatrice tascabile. ↩︎

  22. A.M. Turing, Computing Machinery and Intelligence, cit., p. 442, ora p. 449. ↩︎

  23. Questo aspetto di programma tecnologico-sociale è evidentemente importante in Turing. Lo ha particolarmente sottolineato Shlomo Danziger (Intelligence as a Social Concept: a Socio-Technological Interpretation of the Turing Test, “Philosophy & Technology”, vol. 35, n. 68, 2022, https://doi.org/10.1007/s13347-022-00561-z, pp. 1-26), proseguendo nella linea interpretativa di Diane Proudfoot (Rethinking Turing’s Test, cit.; An Analysis of Turing’s Criterion for ‘Thinking’, cit.). Ma il proton pseudos di lei lo conduce ad affermare che l’esistenza di macchine intelligenti diviene socialmente possibile quando cessa il pregiudizio contro di esse. Il fatto è che per Turing negare alle macchine un’“intelligenza” non è affatto un pregiudizio, ma quasi un’ovvietà: “pregiudizio” è pensare che gli esseri umani posseggano proprietà irriproducibili (salvo che, come ora vedremo, Turing non esclude affatto che questo pregiudizio dica qualcosa di vero). Ovviamente superando questo pregiudizio le macchine potranno essere dette “intelligenti”, ma solo perché la parola “intelligenza” avrà cambiato di significato, o di connotazione emozionale. ↩︎

  24. A.M. Turing, Computing Machinery and Intelligence, cit., p. 447, ora p. 452. ↩︎

  25. Rispettivamente A.M. Turing, Computing Machinery and Intelligence, cit., p. 436, ora p. 443; e A.M. Turing, R. Braithwaite, G. Jefferson, M. Newman, Can Automatic Calculating Machines Be Said to Think? (1952), cit., p. 495. ↩︎