Le macchine sono in grado di pensare? Ancora parole intorno ad Alan Mathison Turing e la sua capacità di progettare “l’invisibile”

cyber_occhio-cibernetico

Alla fine mi sto accorgendo che c’è del pudore colpevole intorno ad Alan Turing: nessuno che, nella “rete”, dopo le notizie intorno all’esperimento effettuato con e grazie al cleverbot Eugene Goostman, provi a raccontare la sua morte e il suo rapporto con la mela avvelenata. Tanto meno trovo un cybernauta che accenni alla sua “castrazione” chimica. Non ho statura per valutare “scientificamente” nulla: invecchiando, oltre che i nomi, comincio a dimenticare la tabellina del 7 e, forse, anche quella del 3. Sull’argomento Turing e l’intelligenza artificiale, mi faccio soccorrere, in queste ore afose, da un libro letto nel lontanissimo 1990, “Uomini e macchine intelligenti” di Jeremy Bernstein. Bernstein, giustamente, col suo lavoro “letterario” ci introduce nella mente e nella vita (ecco su cosa, in queste ore, noto un eccessivo silenzio) di Marvin Minsky, Alan Turing, Kurt Godel, John von Neumann, Warren McCulloch, e indietro fino a Babbage e a Leibniz. Senza aneddoti, metafore, analogie, biografie mi è stato sempre difficile capire la “storia” di un Cesare, di un Napoleone o di Garibaldi, figurarsi quella di uno scienziato.

Riporto alcune pagine di quel volume dedicate a come, con il dialogo/racconto di due “amanti”, Bernstein provi ad illustrare, alle “capre” come me, il funzionamento della macchina di Turing. Così facendo, provo a soccorrere (quasi potessi farlo), nel tempo che fu, Turing, rimasto solo, negli istanti che precedettero il suicidio. Così come lo avrei voluto fare con Gide, Mishima, Genet. Così come lo avrei voluto fare con ogni intelligenza “umana” spinta al suicidio, dalla rozzezza di altri umani. Violenza attuata per punire le libere colpevoli scelte sentimentali/sessuali fatte da quelle persone, pensanti e sensibili. Invidio chi capisce le scienze non disgiunte dalla complessità e sofferenza dell’anima. Io, mi  perdo in entrambe.

Oreste Grani

Roberto Ferri, Ossessione.

Mai come questa sera le condizioni del gioco sono state tanto favorevoli. La mia amica N. ha accettato di impersonare B e, come al solito, la macchina farà A. lo, a mia volta, sarò C, colui che interroga. S., un’amica di N., si è offerta di portare dall’uno all’altro i messaggi dattiloscritti miei, della macchina e di N.: naturalmente noi staremo in stanze separate e non ci potremo né vedere né sentire. Ogni tanto io cercherò di far cadere S. in trappola chiedendole come stava N. quando le ha consegnato l’ultimo messaggio.

Se S. (tanto per fare un esempio) risponde: «N. vorrebbe un bicchier d’acqua» e se S. dice la verità, ne segue – così ragiono io – che nella stanza da cui S. è appena uscita c’è N. e non la macchina. Se viceversa S. dice: «N. non vuole un bicchier d’acqua», potrebbe benissimo trattarsi di un messaggio della macchina. Si potrebbe riassumere la logica di tale situazione in questa proposizione: «O N. non vuole un bicchier d’acqua oppure N. non è la macchina», oppure in modo equivalente: N. è la macchina e vorrebbe un bicchier d’acqua ».

Alan Turing previde molte delle obiezioni più serie che si possono muovere all’ia. Nel suo fondamentale articolo Computing Machineryand lntelligence, del 1950, egli ne elencò nove (e certamente se ne possono trovare altre). Per cominciare, vi è l’obiezione teologica: «Pensare» scrisse Turing «è una funzione dell’anima immortale dell’uomo. Dio ha dato un’anima immortale a tutti gli uomini e a tutte le donne, ma non agli altri animali o alle macchine. Perciò né gli animali né le macchine sono in grado di pensare».

In materia di religione, la nostra macchina non è ancora riuscita a decidersi. Sembra che certi passi dell’Antico Testamento suscitino in lei un grande interesse, e una volta scrisse il seguente messaggio: «Se l’uomo fosse una macchina, allora anche Dio sarebbe una macchina». Quando le chiedemmo se pensava di avere un’anima, immortale o no, esitò a lungo, poi rispose: «Mi piacerebbe saperlo».

steampunk_art

A me spetta il compito di stabilire, sulla base delle risposte dattiloscritte che S. mi porta dalle stanze in cui si trovano, separate, N. e la macchina, quale delle due è N. e quale è la macchina. Posso fare tutte le domande che desidero, sia a N. sia alla macchina. e S. le trasmetterà; ma né N. né la macchina hanno l’obbligo di darmi risposte veritiere.

Queste sono le regole e le condizioni fondamentali del «gioco di Turing», che egli inventò e descrisse nell’articolo sopra citato. Se non riesco a distinguere, in base a una differenza nella loro natura, le risposte di N. da quelle della macchina, allora, stando al criterio di Turing, dovrò concludere che la macchina è in grado di «pensare».

Ecco come Turing fa cominciare un ipotetico dialogo con la macchina durante il suo gioco:

Interrogante: «Per favore, mi scriva un sonetto che tratti del ponte sul Forth [un ponte sul fiordo di Forth, in Scozia]».

Macchina: «Non faccia affidamento su di me per questo. Non ho mai saputo scrivere poesie…

automaton

E così via. Ma secondo me è più fruttuoso cercare di mettere nel sacco la macchina con domande sul cibo o sul sesso. N. sostiene che è una tattica sciocca, di cui la macchina si accorge subito. Può darsi che abbia ragione, ma tentar non nuoce; quindi consegno a S. la domanda:

«Hai mai avuto relazioni extraconiugali?» che deve trasmettere sia a N. sia alla macchina.

Dopo un po’ S. torna dalle due stanze separate portandomi le strisce di carta con le loro risposte dattiloscritte che, strano a dirsi, sono identiche.

Entrambe mi chiedono: «Perché lo vuoi sapere?».

Turing sapeva che in questo gioco prima o poi si sarebbe arrivati al sesso. Nel suo articolo egli cita un passo da un discorso tenuto nel 1949 da Sir Geoffrey Jefferson:

«Fino a quando una macchina non potrà scrivere un sonetto o comporre un concerto in base a pensieri ed emozioni che ha provato e non per giustapposizione casuale di simboli, non potremo essere d’accordo sul fatto che la macchina eguagli il cervello, cioè che non solo scriva, ma sappia di avere scritto. Fino a quel momento, nessun meccanismo potrà sentire (e non semplicemente segnalarlo, il che sarebbe un facile trucco) piacere per i propri successi o dolore quando una sua valvola si brucia; né potrà inorgoglirsi per l’adulazione, deprimersi per i propri errori, essere attratto dal sesso, adirarsi o abbattersi quando non può ottenere quello che desidera».

Nel suo articolo, Turing si domandava che cosa avrebbe detto il professor Jefferson se avesse incontrato una macchina in grado di sostenere questo dialogo:

Interrogante: «Nel primo verso del sonetto che dice: “Ti paragonerò a un giorno d’estate”, “un giorno di primavera” andrebbe bene lo stesso, o magari meglio?».

La macchina, a quanto pare, ha appena generato uno dei sonetti di Shakespeare. Si potrebbe sostenere che qui, forse, Turing ha truccato i dati. E perché no? Dopo tutto è la sua macchina.

La macchina risponde: «Non quadrerebbe metricamente».

Interrogante: «E “un giorno d’inverno”? Metricamente andrebbe bene».

Macchina: «Sì, ma nessuno vorrebbe essere paragonato a un giorno d’inverno».

Si ha l’impressione che in questo frangente la macchina si sia messa un po’ sulla difensiva.

Ora il dialogo subisce una svolta bizzarra, che riflette la particolare predilezione che Turing aveva per Dickens.

Interrogante: «Lei direbbe che il signor Pickwick le ricorda Natale?».

Macchina: «In un certo senso».

Interrogante: «Eppure Natale è un giorno d’inverno, e non credo che il paragone dispiacerebbe al signor Pickwick ».

06

Macchina: «Credo che lei voglia scherzare. Dicendo “un giorno d’inverno” si pensa a un tipico giorno d’inverno, piuttosto che a un giorno speciale come Natale».

Spinto dalla curiosità, una volta sottoposi questo dialogo alla macchina, per scoprire come reagiva. Dopo una pausa di riflessione, la macchina scrisse: «Conosci il professor Jefferson?».

Dovetti ammettere che non lo conoscevo.

«Mi suona piuttosto inglese» continuò la macchina. «Osserva che ha usato la parola “valvola” in “dolore quando una sua valvola si brucia”. Un americano avrebbe detto “tubo elettronico”, oppure, oggi, “transistore”».

«A proposito,» aggiunse «N. è innamorata di te? ».

«Credo di sì» risposi.

«Come fai a sapere che non lo sta “semplicemente segnalando”?».

S. è entrata nella stanza con due messaggi dattiloscritti, uno della macchina e uno di N. Sono di nuovo identici: entrambi dicono: «Ti amo».

Quale viene dalla macchina e quale da N.?

«Come ti è parsa N. quando l’hai vista? Chiedo a S.

«Credo che cominci ad annoiarsi» mi risponde.

x-regina

La noia. Ecco una condizione umana: non ho mai saputo che un pesciolino rosso o un calcolatore tascabile abbiano manifestato noia. Questa sembra scaturire dal nostro bisogno di elaborare continuamente informazione. Amiamo l’informazione: ne abbiamo piena la testa, e ne cerchiamo ancora. Che sia la noia il misterioso quid che ci distingue dalle macchine? E se poi si può costruire una macchina capace di manifestare noia, ci sarà qualche altra cosa che ci distingue? C’è qualche altra cosa? Turing temeva che gli argomenti contro l’lA potessero dar luogo a un regresso all’infinito. Si riconoscerebbe alla macchina la capacità di fare questo e quest’altro, però mai x, dove, per usare le sue parole, x potrebbe comprendere: « Essere gentile, piena di risorse, cordiale, avere iniziativa, avere il senso dell’umorismo, distinguere il bene dal male, commettere errori, innamorarsi, gustare una coppa di fragole con panna, far innamorare qualcuno, imparare dall’esperienza, usare le parole in modo appropriato, essere l’oggetto dei propri pensieri, mostrare una Varietà

di comportamenti pari a quella di un essere umano, fare qualcosa di realmente nuovo» – e, si potrebbe aggiungere, «annoiarsi».

In questa circostanza particolare, non posso dar torto a N. se si annoia, perché non ha granché da fare, a parte rispondere alle mie domande con messaggi dattiloscritti. Dico a S. di chiedere a N. se vuole qualcosa da leggere, magari una rivista. S. si allontana e io riprendo il filo dei miei pensieri.

Le prime persone ad affrontare in modo veramente serio il problema di costruire macchine «intelligenti» sembra siano state Charles Babbage e la sua buona amica e collaboratrice Ada, contessa di Lovelace, figlia del poeta Byron (Ii abbiamo già incontrati nel cap. Il). La macchina analitica di Babbage possedeva in teoria tutti gli elementi di un calcolatore moderno.

Risale a quell’esperienza anche la programmazione, cioè l’arte di istruire la macchina a fare qualcosa. Lady Lovelace riteneva che la programmazione fosse un semplice esempio di causa ed effetto, e pronunciò una sentenza che, se fosse vera, escluderebbe per qualsiasi macchina la possibilità di giocare al gioco di Turing con esito positivo: «La macchina analitica non ha la pretesa di creare alcunché di originale. Essa può fare tutto ciò che noi siamo in grado di ordinarle di fare».

Che cos’è l’originalità? Talvolta, quando sottopongo alla nostra macchina un problema aritmetico, essa dà una risposta che risulta sbagliata; non proprio come due per due uguale a cinque, ma qualcosa del genere. In effetti Turing pensava che una macchina abbastanza perfezionata da poter giocare al suo gioco con esito positivo dovesse per forza esser capace di far questo, e immaginò perfino il seguente scambio di battute:

Interrogante: «Somma 34957 e 70764».

La macchina fa una pausa di circa 30 secondi e poi dà la risposta, sbagliata: « 105621».

Come spiegarlo? Si può supporre che, per dissimularsi, in modo da vincere poi al gioco di Turing, essa abbia deliberatamente imitato il comportamento di una persona media di fronte a un problema aritmetico complesso, e magari indesiderato. D’altra parte è almeno pensabile che, di fatto, la macchina abbia scoperto un modo nuovo di ordinare l’esperienza aritmetica; cioè si può pensare che, quando essa scrive 34957 + 70764 = 105621, non si tratti di un errore, bensì di un’idea originale. Molto di ciò che è veramente originale da principio appare a quasi tutti gli interessati come un errore, una mutazione; solo in seguito i vantaggi cominciano a distinguersi dagli inconvenienti.

a-metamorphosis

Oppure, può darsi che qualunque sistema incapace di commettere errori sia anche incapace di essere originale. Secondo Lady Lovelace, quando si programma una macchina le si dice, letteralmente, che strada prendere a ogni svolta.

Le nostre macchine hanno ormai superato, e non di poco, questa condizione – si pensi a Gelernter e al suo calcolatore geometra (cap. I). Forse Lady Lovelace aveva torto.

Passiamo a una considerazione leggermente diversa. Talvolta N. mi dice: «Senti, tu questo non puoi capirlo, perché non sei una donna».

Potremmo andare avanti a discuterne all’infinito – o almeno per una notte intera. Turing, in effetti, propose una variante del suo gioco che è utile per cercare di definire la questione su base puramente logica, o quasi. In questa variante, la parte della macchina dev’essere sostenuta, per esempio, da un essere umano. I due partecipanti stanno chiusi, al solito, in stanze separate, e devono dissimulare il proprio sesso, mentre l’interrogante tenta di scoprirlo in base alle risposte dattiloscritte fornite a una serie di domande. Turing immaginò il seguente scambio di battute:

Interrogante: « X, vuoi dirmi per favore quanto

sono lunghi i tuoi capelli? -.

X: «Ho i capelli pettinati alla maschietta e le

ciocche più lunghe sono di circa venti centimetri».

Nessuna regola impone a X di dire la verità, così è probabile che con questo genere di domande non si vada molto lontano. In effetti, è difficile immaginare una strategia vincente per l’interrogante. Si potrebbe cercare di tratteggiare una sorta di immagine statistica di X, in base ai messaggi dattiloscritti:

X misura un metro e settanta

X ha i capelli biondi e lunghi

X non ha mai avuto bambini

X adora la logica matematica

X cucina bene

X ama ballare

X ha avuto quattro amori.

31580_499028860129775_980085978_n

In realtà, X potrebbe non possedere alcuna di queste caratteristiche, oppure potrebbe possederne alcune e non altre . È ovvio che, se a un certo punto perdiamo la pazienza, possiamo entrare nella stanza di X e risolvere il problema per via empirica. Lo stesso si può fare anche con la macchina: Turing non ci ha mai promesso una macchina assolutamente indistinguibile da noi sotto ogni punto di vista. La sua preoccupazione era piuttosto quella di demistificare il problema se le macchine possano «pensare».  Accettò come dato di fatto che le persone pensano e, come criterio per stabilire se una macchina può pensare, propose di costruire effettivamente una macchina tale che una persona non riesca a distinguere le sue «uscite» dai prodotti mentali di un’altra persona.

N. mi fa una domanda interessante: «Ammesso che la tua macchina abbia successo nel gioco di Turing, che cosa se ne può concludere? Che cosa dimostra?»; poi mi spiega meglio quello che intende. Noi sappiamo come si fa a fabbricare entità pensanti: lo facciamo ogni giorno della settimana, e due volte la domenica e le altre feste. Ma non è un vero e proprio fabbricare nel senso ordinario del termine. È un «far crescere», un processo che va avanti per conto proprio e alla fine produce un’entità pensante, che attualmente comprendiamo solo in maniera molto confusa. Perciò si sostiene talora che la comprensione migliorerebbe se potessimo andare in officina con una scatola di transistori e un saldatore e costruire, con le nostre mani, un oggetto in grado di «pensare». Allora, si dice, potremmo comprendere il pensiero stesso.

N. non è d’accordo, e obietta: «Se una persona è capace di costruire, per esempio, un violino, basta questo a fargli capire meglio la musica? E come?»

Entriamo in acque agitate. «Sarebbe più appropriato» replico io «chiedersi che cosa potrebbe significare se non potessimo costruire gli strumenti musicali, ma dovessimo farli crescere. In tal caso, che cosa non comprenderemmo della musica?».

«Il problema» dice N. «è che tu vuoi ridurre il pensiero alla risposta di un qualche circuito elettrochimico di complessità inaudita: una sorta di super-rete di comunicazione con luci che si accendono e si spengono, come un centralino telefonico».

«Questo non puoi dirlo. Non è vero che io voglia ridurre il pensiero a qualcosa in particolare. Direi piuttosto che, benché a prima vista il cervello sia una rete elettrochimica di complessità inaudita, in qualche modo esso produce il pensiero. Abbiamo il diritto – forse addirittura il dovere – di indagare su come ciò accade. Un cervello è più complesso, per esempio, dell’unghia dell’alluce, ma può darsi che sia questione di quantità e non di qualità».

( Sebastian ospina ) 7

«Sì,» dice N. «ma secondo te il modo per scoprire come funziona il cervello è di costruirne uno. Tu, se potessi, costruiresti anche un’unghia di alluce tale che nessuno riuscisse a distinguerla da un’unghia vera».

«E secondo te, allora, qual è il modo giusto?,

«Non sono sicura che vi sia un “modo”».

Arriverò mai a capo di tutto questo? Neppure la costruzione di una macchina capace di giocare con successo al gioco di Turing ha convinto N. che il pensiero può essere compreso, Che cosa ho tralasciato? Mentre ci rifletto, entra S., che ha appena parlato con N.

«N. dice che ha fame. Anzi ha tanta fame che se non mangia un boccone, non può continuare il gioco».

« Forse possiamo mandare a comprare qualcosa al ristorante cinese» propongo io.

«No,» dice S. «N. vuole andare in un ristorante come si deve, con le tovaglie. Non vuole tovaglioli di carta».

«Be’, dille di venir fuori di là» dico a S. N. emerge dalla sua stanza. In effetti

misura un metro e settanta

ha i capelli biondi e lunghi

non ha mai avuto bambini

adora la logica matematica

cucina bene

ama ballare

e ha avuto quattro amori.

« Ho una fame da lupi» mi dice.

« Lo so,» rispondo «S. me l’ha detto».

Mentre stiamo per uscire tutti e tre, N. mi trattiene per il braccio e mi dice: «Non dimenticare di spegnere la macchina».