Nel capitolo precedente abbiamo analizzato il funzionamento di una rete neurale strutturata come memoria associativa.
Ricordiamo che una memoria associativa realizzata con tecnica neurale deve presentare una delle seguenti proprietà:
-un contenuto parzialmente corretto in input deve richiamare comunque l'output associato corretto
-un contenuto sfumato o incompleto in input deve trasformarsi in un contenuto corretto e completo in output
Quando parliamo di contenuto dell'input di una memoria associativa intendiamo una configurazione di valori booleani ai quali pero possiamo dare significati più articolati tramite opportune interfacce software sugli input/output della rete. Le memorie associative analizzate hanno comunque una serie di limitazioni abbastanza gravi:
1. capacità di memoria bassa;
2. spesso è necessaria ortogonalità dei vettori di input;
3. le forme riconosciute devono essere linearmente separabili;
4. incapacità di adattamento alla traslazione,all'effetto scala e alla rotazione;
5. possibilità di operare solo con dati booleani.
Spieghiamo meglio i punti 3 e 4 che forse possono risultare i più oscuri:
· la separabilità lineare di una forma da riconoscere si ha quando una retta(in due dimensioni) o un piano (in tre dimensioni) o un iperpiano(in n dimensioni) può separare i punti X(k)={x1(k),x2(k),...xn(k)} (corrispondenti alla forma k da riconoscere) da tutti gli altri punti che rappresentano forme differenti e quindi da discriminare. Ad esempio le due forme logiche AND e OR sono linearmente separabili,mentre non lo è la forma logica XOR (or esclusivo), come rappresentato in fig.1.
· l'incapacità di adattamento alla traslazione e alla rotazione o all'effetto scala è importante nel riconoscimento di immagini di oggetti che dovrebbero potere essere riconosciuti indipendentemente da questi tre fattori.
Luca Marchese
Successivo: Reti neurali multistrato
Sommario: Indice