Page 12

Nella mente del computer In a Computer’s Mind di Diego Marconi* by Diego Marconi*

Ancora oggi nessuno può dire di sapere quali siano i veri limiti invalicabili dell’intelligenza artificiale Even today nobody can claim to know whether artificial intelligence has insuperable limits

10

Diego Marconi

L’

intelligenza artificiale è il programma di ricerca tecnologica che si propone di realizzare programmi di computer capaci di prestazioni paragonabili a quelle della mente umana, cioè di emulare i processi cognitivi umani. Certo, i computer sono da tempo capaci di processi cognitivi come il calcolo aritmetico, il ragionamento logico o il gioco degli scacchi: tutte cose in cui, anzi, sono molto più bravi e più veloci di noi. Ma qui si parla di attività più complesse, dalla comprensione del linguaggio alla traduzione da una lingua a un’altra, dalla diagnosi medica al riconoscimento di oggetti. Attività che, da un lato, assomigliano poco a un calcolo, almeno a prima vista; e, dall’altro, sembrano caratteristicamente e irriducibilmente umane, nel senso che, se una macchina ne fosse davvero capace, saremmo inclini a trattarla come una di noi. All’inizio degli anni ‘70 del secolo scorso, l’intelligenza artificiale aveva colto alcuni indubbi successi: erano stati progettati sistemi esperti che

sembravano capaci di buone prestazioni in campi come la prospezione mineraria, l’analisi chimica e la diagnosi medica; altri sistemi sembravano comprendere abbastanza bene l’inglese, sia pure entro limiti piuttosto ristretti (conoscevano relativamente poche parole, capivano poche frasi). Ma alcuni filosofi erano scettici. Hubert Dreyfus, ad esempio, pensava che l’intelligenza artificiale non faceva che riprodurre il vecchio sogno razionalista di ridurre il funzionamento della mente all’elaborazione di rappresentazioni secondo regole, e sarebbe fallita - come era fallito il razionalismo - perché la mente non funziona così. John Searle rincarava la dose, sostenendo che anche le prestazioni di cui i computer erano capaci non erano davvero intelligenti, perché le macchine, al contrario di noi, non sapevano quel che facevano: i simboli che elaboravano non avevano, per i computer, alcun significato (ne avevano, invece, per i programmatori umani che “dicevano” alle macchine

che cosa fare). Di fatto, all’inizio degli anni ‘80 l’intelligenza artificiale entrò in quella che venne percepita come una fase di stallo. I progressi sembravano lenti e poco significativi; ci si rese conto che, per realizzare programmi intelligenti, si sarebbe dovuto saperne molto di più sulla nostra intelligenza, e forse anche sulla sua base materiale, la neurofisiologia del cervello. Nell’attesa, le ambizioni si ridimensionarono, e con loro anche i finanziamenti. Non si parlò (quasi) più di mente artificiale; ci si accontentò, nel più dei casi, di applicare le tecniche dell’intelligenza artificiale accanto ad altre - alla risoluzione di certi problemi limitati e pratici, come per esempio il reperimento di informazioni su Internet, o di sviluppare, a un alto livello di astrazione, algoritmi e architetture che avrebbero potuto rivelarsi utili nella progettazione di sistemi più “intelligenti”. La “rivoluzione connessionista” della fine del secolo non cambiò qualitativamente la situazione: le reti neurali facevano alcune cose meglio dei sistemi tradizionali, altre peggio, altre per niente affatto, ma comunque non fornivano, almeno immediatamente, la soluzione delle difficoltà di fondo dell’intelligenza artificiale. Su un piano di principio, tuttavia, nulla era deciso. A tutt’oggi, non possiamo veramente dire di sapere quali sono i limiti invalicabili dell’intelligenza artificiale (se ci sono). Nessuno ha dimostrato che un computer non potrà mai, ad esempio, riconoscere un volto o mettere ordine in una stanza.

I limiti accertati, indiscutibili, dei computer sono altri, e riguardano, più che le macchine, i calcoli che esse elaborano: e dunque riguardano anche noi, perché quel che le macchine proprio non sanno fare, non lo sappiamo fare nemmeno noi. Questi “veri” limiti sono descritti con grande competenza ed efficacia nel recente Computer a responsabilità limitata di David Harel (Einaudi 2002). Prendete il sogno di ogni programmatore: un programma che prende in input altri programmi (o meglio, le loro descrizioni) e risponde “Sì” se il programma in input fornisce una soluzione corretta per tutti gli input ammissibili, e “No” se per qualche input o non termina, o fornisce una soluzione scorretta. Orbene, il sogno è irrealizzabile: è dimostrato che il problema del controllo dei programmi è indecidibile, cioè che non esiste un algoritmo - un procedimento meccanico che lo risolve. I problemi indecidibili sono molti. Alcuni di essi sono equivalenti tra loro: se sapessimo risolverne uno (se avessimo un oracolo che lo risolve) sapremmo risolvere anche gli altri. Altri invece sono così indecidibili che non sapremmo risolverli nemmeno se disponessimo di una gerarchia infinita di oracoli. Considerate ora il problema apparentemente banale - di fare l’orario di una scuola, cioè di distribuire professori e studenti nelle aule disponibili, dati certi vincoli. Questo problema è decidibile. Ma gli algoritmi che lo risolvono sono lenti, perché, al crescere della complessità dell’input,

il tempo di esecuzione cresce in maniera esponenziale (cioè se N è la lunghezza dell’input, il tempo di esecuzione è mN). Dunque “lenti” vuol dire molto lenti: certi algoritmi esponenziali, dato un input di 100 caratteri, forniscono la risposta dopo un numero di secoli di 185 cifre. Per farsi un’idea di quanto tempo è, si pensi che il numero di secoli da cui esiste l’Universo è di 9 cifre. Di certo il Preside non potrebbe permettersi di aspettare così a lungo che l’orario sia pronto. I problemi che sono decidibili soltanto da algoritmi di questo genere si chiamano “intrattabili”. In realtà, noi non sappiamo veramente se, ad esempio, il problema dell’orario scolastico sia intrattabile; quello che sappiamo è che il problema è decidibile, e che però tutti gli algoritmi di risoluzione a noi noti sono inaccettabilmente lenti. E sappiamo anche che, se ci fosse un algoritmo “ragionevole” che risolve questo particolare problema, ci sarebbero algoritmi ragionevoli per tutti gli altri problemi analoghi. Ma non sappiamo se questi algoritmi ci siano (anche se la maggior parte dei matematici pensa di no). Questo problema è una delle più affascinanti questioni aperte della matematica attuale. La nostra cultura è abituata a pensare che, se un problema è sensato, debba essere risolubile. Ma i problemi di cui abbiamo parlato non hanno, almeno a prima vista, nulla di insensato: non implicano contraddizioni né mettono in gioco capacità infinite. Eppure, alcuni di essi sono assolutamente insolubili, mentre altri sono

(probabilmente) insolubili nell’ambito del nostro Universo, quindi da noi e da tutti gli esseri vagamente affini a noi. Forse, dunque, dobbiamo riesaminare alcuni aspetti centrali del nostro modo di pensare.

* Diego Marconi insegna logica e filosofia del linguaggio all’Università degli Studi del Piemonte Orientale e si occupa, in particolare, del pensiero di Wittgenstein, di teoria semantica e di filosofia della scienza cognitiva. Tra le pubblicazioni recenti più importanti: Lexical Competence (MIT Press 1997), Wittgenstein (Laterza 1997), La philosophie du langage au XXème siècle (L’éclat 1997), Filosofia e scienza cognitiva (Laterza 2001).

A

rtificial intelligence is a technological research program aimed at creating computer programs capable of performing in comparable ways to the human mind or, in other words, of emulating human cognitive processes. Of course for some time now computers have been able to perform cognitive processes like arithmetic computation, logical reasoning or playing chess: all things at which they perform better and faster than us. But here we are talking about more complicated matters, such as understanding language, translating from one language to another, carrying out

medical diagnoses and recognizing objects. Activities which, on one hand, do not at least initially seem like computations; on the contrary, they actually appear to be irreducibly human characteristics in the sense that, if a machine were really capable of doing them, we would tend to treat it like one of us. In the early 1970s, artificial intelligence certainly achieved some notable successes: expert systems were designed that seemed to be capable of performing well in fields like mineral prospecting, chemical analysis and medical diagnosis; other systems seemed to understand English fairly well, although within rather confined limits (they only knew a few words and understood a few sentences). But a number of philosophers were skeptical. Hubert Dreyfus, for instance, believed that artificial intelligence was merely the old rationalist dream of reducing the workings of the human mind to just elaborating representations based on rules and was therefore destined to fail - just as rationalism had failed - because that is not how the mind works. John Searle went even further and claimed that computers were not even carrying out intelligent actions, because machines, unlike us, do not know what they are doing: the symbols they manipulate are meaningless (whereas they are meaningful to the human programmers “telling” the machines what to do). In contrast, artificial intelligence seemed to grind to a halt in the early 1980s. Progress seemed slow and rather insignificant; it was

11

arcVision 9  

Un approfondimento sul concetto di limite. Da un lato la propensione tutta umana a superare ogni confine attraverso uno sviluppo continuo de...

Advertisement