mercoledì 5 marzo 2008

L'apologo della stanza cinese

Di John Searle (un filosofo contemporaneo, specializzato in problematiche relative al linguaggio e alla mente) è particolarmente noto un esperimento mentale, detto "della stanza cinese", formulato originariamente in polemica con l'ipotesi della possibilità di programmare un computer perché pensi come un essere umano.
Riassumendo i termini della situazione, si ha un uomo prigioniero in una stanza che riceve ogni giorno un plico contenente dei simboli per lui privi di significato, che ricerca in un libro a sua disposizione, dove sono accoppiati ad altri, per lui egualmente incomprensibili. Egli copia questi nuovi simboli, per poi far passare i fogli da essi occupati in una fessura della porta (si noti l'evidente analogia con input e output di un calcolatore); dopo qualche minuto, riceve viveri.
Quello che succede realmente è che all'uomo vengono inviate frasi in cinese, egli poi sfrutta un manuale con risposte preconfezionate e porta quindi avanti una sorta di conversazione. La domanda è "il prigioniero conosce il cinese"? Searle risponde di no, ma la cosa merita maggiore riflessione, per vari motivi.

In primo luogo, i termini possono trarre in inganno: linee argomentative del tipo "ma non è possibile un manuale così completo" non sono in realtà rilevanti, nelle premesse dell'apologo c'è il fatto che dal punto di vista di chi invia i simboli all'uomo la conversazione risulta credibile.

In seconda istanza, definire "conoscere il cinese" in modo diverso da "essere in grado di comunicare correttamente in cinese" è piuttosto complesso, se non impossibile. Ne consegue che si può sostenere che il nostro cervello si comporta come una stanza cinese: del resto, non c'è meccanismo per poter conoscere il cinese che non passi per il cervello, il quale sottostà alle leggi della fisica come il resto del reale (difatti una delle argomentazioni a favore della possibilità di una intelligenza artificiale afferma che apparentemente niente vieta ad un computer adeguatamente potente di simulare completamente il funzionamento di un cervello umano, neurone per neurone; chiaramente è una possibilità teorica, per quanto ci sia chi ci sta lavorando).

Ormai i computer sono giocatori di scacchi più abili degli esseri umani; giocano in modo diverso, ma se il risultato è valido, in che modo questo è rilevante? Un calcolatore con "moduli" così funzionali anche per cose come la conversazione o la percezione spaziale non sarebbe intelligente?
Le previsioni di chi sperava in risultati più veloci nel campo dell'intelligenza artificiale si sono rivelate sbagliate, ma credere che il motivo risieda in una impossibilità teorica trovo sia sintomo di poco scientifico antropocentrismo, eccezionalismo in relazione al cervello umano, in ultima istanza, sciovinismo del carbonio. Il problema è di ingegneria del software e relativo al fatto che identificare algoritmi per giocare a scacchi è enormemente più semplice che farlo per altre attività umane.

2 commenti:

Shunran ha detto...

I problemi del linguaggio cuia farei cenno in questo contesto sono essenzialmente due.
1) Il linguaggio possiede una marcata componente stocastica e non deterministica. Non esiste un modo di esprimersi corretto. Non c'è mai una risposta "esatta". Ho forti dubbi sulla possibilità teorica di riprodurre un sistema in grado di selezionare risposte sufficientemente variabilie sufficientemente coerenti tra loro.

2) In secondo luogo vi è la componente fondamentale: l'intenzionalità del linguaggio, il substrato di intenzioni che condiziona il modo di esprimersi "naturale". E' possibile mettere in piedi algoritmi capaci di riprodurre questo?

Poi figurati, sono il primo a sostenere che non si dovrebbe mai utilizzare supposte impraticabilità teoriche come scusa.

Spunto molto interessante, non c'è che dire.

Duccio ha detto...

1) Converrai, però, che data l'oggettiva esistenza di un sistema fisico in grado di risolvere il problema (il nostro sistema nervoso), non può esserci impossibilità teorica.
2) Effettivamente quello del linguaggio è solo uno dei problemi (e probabilmente non il maggiore; una delle critiche più rilevanti rivolte al cosiddetto test di Turing è il fatto che non ci vuole poi molto ad ingannare un umano medio, anche con algoritmi rudimentali).