In generale, come abbiamo visto, l'IA sostiene che l'intelligenza e le facoltà cognitive di un agente consistano nella sua capacità di manipolare automaticamente simboli. Questo genere di sistemi, a partire dalla macchina di Turing fino ad arrivare al calcolatore digitale, non dipende assolutamente dal substrato materiale con cui viene realizzato: potrebbero essere usati, in modo equivalente, componenti elettronici al
silicio, componenti meccanici (leve, ruote, pulegge) o elettromeccanici; così come un computer potrebbe constare di molecole che interagiscono mediante reazioni chimiche, o da cellule organiche che si scambiano proteine ed enzimi. Quello che è importante, in una macchina, è che possieda una struttura formale e funzionale. Come sappiamo, l'IA trasferisce questi concetti allo studio della mente e suppone che i processi mentali non siano altro che il prodotto delle computazioni simboliche del cervello; anche in questo caso, il substrato materiale in cui tali processi avvengono sembra essere irrilevante ai fini della spiegazione dell'intelligenza. Tuttavia, alcuni studiosi non sono concordi con questo approccio, e ritengono che sia al contrario indispensabile studiare la struttura biologica del cervello ed evidenziarne il funzionamento.
Recenti studi hanno dimostrato che il cervello sembra possedere un'architettura parallela, ossia i suoi meccanismi non sono equivalenti ad una macchina formale automatica a stati discreti e sequenziali, ma lavorano contemporaneamente: si tratta di miliardi di processi contemporanei caratterizzati da continue variazioni di stato. Inoltre, alcune facoltà cognitive come la percezione non sembrano riducibili a processi computazionali simbolici.
Queste considerazioni, unitamente ai vani tentativi dell'IA di costruire modelli computazionali della mente effettivamente funzionanti, hanno preparato il terreno, alla fine degli anni Settanta, alla nascita di un nuovo orientamento nello studio dei processi mentali e nella costruzione di macchine intelligenti. Questa nuova impostazione è definita connessionismo, e ha come fondamento teorico l'idea secondo la quale sia indispensabile emulare la fisiologia del cervello, cioè il funzionamento delle sue cellule, per spiegare e riprodurre l'intelligenza e le facoltà cognitive proprie dell'uomo o di altre specie animali. Le ricerche nel settore connessionista si sono servite delle reti neurali per tentare di emulare il comportamento delle cellule neuronali. Una rete neurale è una struttura formata da un certo numero di unità collegate tra loro da connessioni. Attraverso queste, ogni unità influenza fisicamente le altre con cui è connessa.
Le unità hanno alcune caratteristiche proprie delle cellule nervose, i neuroni del sistema nervoso reale, mentre le connessioni possiedono alcune delle caratteristiche essenziali dei collegamenti sinaptici tra neuroni [58]. Una rete neurale è costituita da un insieme di nodi collegati; per ogni nodo, i collegamenti possono essere di due tipi, collegamenti di input - da cui arrivano segnali -e collegamenti di output- tramite i quali la rete emette segnali. I nodi, inoltre, possono assumere due stati: lo stato di riposo e lo stato di attivazione, durante il quale il nodo invia segnali ai nodi cui è connesso. Un aspetto particolare della fisiologia cerebrale emulato dalle reti neurali è il sistema di eccitazione: infatti, i collegamenti tra nodi possono essere o eccitatori o inibitori. In linea generale, si può dire che il comportamento di una rete neurale consiste in un processo in cui, fornita alla rete come input una configurazione di segnali-stimolo (tramite l'attivazione dei nodi input), la rete produce come output un'altra configurazione di segnali.
Le reti neurali presentano anche alcune caratteristiche interessanti: in primo luogo, esse si differenziano a seconda della loro architettura, cioè in base alla disposizione (a strati) dei nodi; esistono perciò reti a uno strato, due strati, ecc. In secondo luogo, le reti neurali si diversificano in relazione al tipo di collegamento tra i nodi: talvolta, le connessioni viaggiano solo in un senso; in altre situazioni, i messaggi vanno sia avanti che indietro; in altre ancora, nodi distanti possono essere collegati in modo diretto.
Una rete neurale può essere simulata 'via software', attraverso un normale calcolatore digitale, oppure attuata a livello hardware, attraverso la connessione di molti microprocessori che funzionano in parallelo.
Le reti neurali possiedono alcune proprietà che le rendono adatte a emulare il cervello umano e il comportamento intelligente; in particolare, se ne possono sottolineare tre: -le reti neurali funzionano in modalità parallela, cioè in ogni momento molti nodi possono cambiare stato contemporaneamente. Come abbiamo visto, sembra che il cervello lavori in parallelo, perciò questo modello si dimostra più adeguato al funzionamento di quest'organo, rispetto al modello di elaborazione sequenziale proprio della macchina di Turing e von Neumann; -le reti neurali sono in grado di apprendere a svolgere dei compiti, senza essere state esplicitamente programmate; -nelle reti neurali, la conoscenza atta a eseguire un certo compito è diffusa in tutti i nodi della rete che la elaborano.
E' evidente, a questo punto, perché si dica che il connessionismo rappresenta una rottura nella tradizione classica dell'IA e della teoria computazionale della mente. Senz'altro, lo ripetiamo, un motivo fondamentale è che il connessionismo sente la necessità e giudica prioritario emulare la fisiologia del cervello per produrre comportamenti intelligenti; ma il motivo primario è quello espresso dalla terza proprietà di cui si è parlato poco fa: l'intelligenza, i processi cognitivi, il pensiero, non derivano da processi computazionali simbolici, ma dal funzionamento globale delle unità subsimboliche che, prese da sole, non significano nulla.
Sulla base di questo principio, sono state realizzate alcune applicazioni delle reti neurali in alcuni ambiti, come nella simulazione dei comportamenti più semplici di specie inferiori, spesso affiancata dalla costruzione di robot reali. In questa direzione, il primo tentativo degno di nota è rappresentato dal 'Perceptron' di Rosenblatt del 1958, un robot capace di spostarsi in un ambiente eludendo gli ostacoli. Le reti neurali si sono rivelate anche molto utili nello studio e nella emulazione dei processi che sottostanno alla percezione, settore in cui l'impostazione classica ha trovato parecchie difficoltà.
Importanti anche le applicazioni pratiche nel campo dei software per il riconoscimento dei caratteri e, recentemente, nel campo dell'analisi finanziaria. Nonostante questi innegabili successi, il connessionismo presenta anche alcuni limiti, di difficile superamento: esso, infatti, è ancora lontano dall'essere applicato soddisfacentemente alla riproduzione artificiale delle facoltà cognitive superiori, questo anche in ragione del fatto che sono ancora scarse le conoscenze che abbiamo in proposito. L'idea più diffusa è che tali facoltà, in qualche modo, consistano di qualche specie di elaborazione simbolica, non necessariamente computazionale, ma che ancora non si riesca a capire come questa scaturisca dall'interazione di molti processi di elaborazione paralleli e subsimbolici.
Tuttavia, per questi motivi, molti studiosi ritengono che il futuro dell'IA stia in una convergenza tra il modello computazionale e il modello connessionista: a grandi linee, si può affermare che il secondo si potrebbe applicare al 'livelli inferiori' dei processi cerebrali, in cui avvengono elaborazioni veloci e parallele di unità subsimboliche; e il primo si potrebbe occupare dei 'livelli alti', in cui si elaborano i simboli dopo averli ricavati dall'output dei livelli bassi.
[58] Cfr. D. Parisi, Mente. I nuovi modelli della vita artificiale, Il Mulino, Bologna 1999, p. 80.
Pubblicazione del prof. Matteo Fini e della prof. Paola Milani
Successivo: La Vita Artificiale
Sommario: Index