Sono stati proposti diversi modelli di memoria per rendere conto di diversi tipi di processi di richiamo, tra cui il richiamo a catena, il richiamo libero e il richiamo seriale. Tuttavia, per spiegare il processo di richiamo, il modello di memoria deve identificare come un ricordo codificato possa risiedere nella memoria per un periodo prolungato fino a quando non vi si accede di nuovo, durante il processo di richiamo; ma non tutti i modelli usano la terminologia di memoria a breve e a lungo termine per spiegare la conservazione della memoria; la teoria del doppio deposito e una versione modificata del modello di memoria Atkinson-Shiffrin (Atkinson 1968) usano entrambe le memorie a breve e a lungo termine, ma altri non lo fanno.
Modello di memoria distribuita multi-tracciaModifica
Il modello di memoria distribuita multi-traccia suggerisce che i ricordi che vengono codificati sono convertiti in vettori di valori, con ogni quantità scalare di un vettore che rappresenta un attributo diverso dell’elemento da codificare. Tale nozione è stata suggerita per la prima volta dalle prime teorie di Hooke (1969) e Semon (1923). Un singolo ricordo è distribuito su più attributi, o caratteristiche, in modo che ogni attributo rappresenti un aspetto del ricordo da codificare. Tale vettore di valori viene poi aggiunto nella matrice di memoria o in una matrice, composta da diverse tracce o vettori di memoria. Pertanto, ogni volta che una nuova memoria viene codificata, tale memoria viene convertita in un vettore o in una traccia, composta da quantità scalari che rappresentano una varietà di attributi, che viene poi aggiunta alla matrice di memoria preesistente e sempre crescente, composta da più tracce – da cui il nome del modello.
Una volta che le tracce di memoria corrispondenti a un ricordo specifico sono immagazzinate nella matrice, per recuperare il ricordo per il processo di richiamo si deve cue la matrice di memoria con una sonda specifica, che verrebbe utilizzata per calcolare la somiglianza tra il vettore di prova e i vettori immagazzinati nella matrice di memoria. Poiché la matrice di memoria cresce costantemente con l’aggiunta di nuove tracce, si dovrebbe eseguire una ricerca parallela attraverso tutte le tracce presenti all’interno della matrice di memoria per calcolare la somiglianza, il cui risultato può essere utilizzato per eseguire il riconoscimento associativo, o con la regola di scelta probabilistica, utilizzato per eseguire un richiamo guidato.
Sebbene sia stato affermato che la memoria umana sembra essere in grado di memorizzare una grande quantità di informazioni, al punto che alcuni avevano pensato a una quantità infinita, la presenza di tale matrice in continua crescita all’interno della memoria umana sembra poco plausibile. Inoltre, il modello suggerisce che per eseguire il processo di richiamo, è necessaria la ricerca parallela tra ogni singola traccia che risiede all’interno della matrice in continua crescita, il che solleva anche il dubbio che tali calcoli possano essere fatti in un breve lasso di tempo. Tali dubbi, tuttavia, sono stati sfidati dalle scoperte di Gallistel e King che presentano prove sulle enormi capacità computazionali del cervello che possono essere a sostegno di tale supporto parallelo.
Modelli di reti neuraliModifica
Il modello multi-traccia aveva due limitazioni chiave: uno, la nozione della presenza di una matrice sempre crescente nella memoria umana suona implausibile; e due, le ricerche computazionali di somiglianza contro milioni di tracce che sarebbero presenti nella matrice di memoria per calcolare la somiglianza suonano ben oltre la portata del processo di richiamo umano. Il modello di rete neurale è il modello ideale in questo caso, poiché supera le limitazioni poste dal modello multi-traccia e mantiene anche le caratteristiche utili del modello.
Il modello di rete neurale assume che i neuroni in una rete neurale formino una rete complessa con altri neuroni, formando una rete altamente interconnessa; ogni neurone è caratterizzato dal valore di attivazione, e la connessione tra due neuroni è caratterizzata dal valore del peso. L’interazione tra ogni neurone è caratterizzata dalla regola dinamica di McCulloch-Pitts, e il cambiamento del peso e delle connessioni tra i neuroni risultanti dall’apprendimento è rappresentato dalla regola di apprendimento di Hebbian.
Anderson mostra che la combinazione della regola di apprendimento di Hebbian e della regola dinamica di McCulloch-Pitts permette alla rete di generare una matrice di peso che può memorizzare le associazioni tra diversi modelli di memoria – tale matrice è la forma di memorizzazione della memoria per il modello della rete neurale. Le principali differenze tra la matrice dell’ipotesi delle tracce multiple e il modello di rete neurale è che mentre la nuova memoria indica l’estensione della matrice esistente per l’ipotesi delle tracce multiple, la matrice dei pesi del modello di rete neurale non si estende; piuttosto, si dice che il peso viene aggiornato con l’introduzione di nuove associazioni tra neuroni.
Utilizzando la matrice di peso e la regola di apprendimento/dinamica, i neuroni citati con un valore possono recuperare il valore diverso che è idealmente un’approssimazione stretta del vettore di memoria target desiderato.
Come la matrice di peso di Anderson tra i neuroni recupererà solo l’approssimazione dell’elemento target quando citati, la versione modificata del modello è stata cercata per essere in grado di richiamare la memoria target esatta quando citati. La rete Hopfield Net è attualmente il modello di rete neurale più semplice e più popolare di memoria associativa; il modello permette il richiamo di un vettore di destinazione chiaro quando si è citati con la parte o la versione ‘rumorosa’ del vettore.
La matrice di peso della rete Hopfield Net, che memorizza la memoria, assomiglia molto a quella usata nella matrice di peso proposta da Anderson. Anche in questo caso, quando viene introdotta una nuova associazione, si dice che la matrice dei pesi viene “aggiornata” per accogliere l’introduzione della nuova memoria; essa viene memorizzata fino a quando la matrice non viene richiamata da un vettore diverso.
Modello di ricerca della memoria a doppio depositoModifica
Prima sviluppato da Atkinson e Shiffrin (1968), e perfezionato da altri, tra cui Raajimakers e Shiffrin, il modello di ricerca della memoria a doppio deposito, ora indicato come SAM o modello di ricerca della memoria associativa, rimane come uno dei più influenti modelli computazionali della memoria. Il modello utilizza nel suo meccanismo sia la memoria a breve termine, denominata negozio a breve termine (STS), sia la memoria a lungo termine, denominata negozio a lungo termine (LTS) o matrice episodica.
Quando un elemento viene codificato per la prima volta, viene introdotto nel negozio a breve termine. Mentre l’elemento rimane nel negozio a breve termine, le rappresentazioni vettoriali nel negozio a lungo termine passano attraverso una varietà di associazioni. Gli elementi introdotti nel magazzino a breve termine passano attraverso tre diversi tipi di associazione: (autoassociazione) l’autoassociazione nel magazzino a lungo termine, (eteroassociazione) l’associazione tra elementi nel magazzino a lungo termine, e la (associazione di contesto) che si riferisce all’associazione tra l’elemento e il suo contesto codificato. Per ogni elemento nel magazzino a breve termine, più lunga è la durata del tempo in cui un elemento risiede nel magazzino a breve termine, maggiore sarà la sua associazione con se stesso con altri elementi che co-residono nel magazzino a breve termine, e con il suo contesto codificato.
La dimensione del magazzino a breve termine è definita da un parametro, r. Quando un elemento viene introdotto nel magazzino a breve termine, e se il magazzino a breve termine è già stato occupato da un numero massimo di elementi, l’elemento probabilmente uscirà dal magazzino a breve termine.
Come gli elementi co-residono nel magazzino a breve termine, le loro associazioni sono costantemente aggiornate nella matrice del magazzino a lungo termine. La forza dell’associazione tra due elementi dipende dalla quantità di tempo che i due elementi di memoria trascorrono insieme nel magazzino a breve termine, noto come effetto di contiguità. Due elementi che sono contigui hanno una maggiore forza associativa e sono spesso richiamati insieme dalla memoria a lungo termine.
Inoltre, l’effetto primacy, un effetto visto nel paradigma di richiamo della memoria, rivela che i primi elementi di una lista hanno una maggiore possibilità di essere richiamati rispetto agli altri nel STS, mentre gli elementi più vecchi hanno una maggiore possibilità di abbandonare il STS. L’elemento che è riuscito a rimanere nel STS per un lungo periodo di tempo avrebbe formato una più forte autoassociazione, eteroassociazione e associazione di contesto rispetto agli altri, portando in ultima analisi a una maggiore forza associativa e a una maggiore possibilità di essere richiamato.
L’effetto recency degli esperimenti di richiamo è quando gli ultimi elementi di una lista sono richiamati eccezionalmente bene rispetto agli altri elementi, e può essere spiegato dal magazzino a breve termine. Quando lo studio di una data lista di memoria è finito, ciò che risiede nel magazzino a breve termine alla fine è probabile che siano le ultime voci che sono state introdotte per ultime. Poiché il magazzino a breve termine è facilmente accessibile, tali elementi verrebbero richiamati prima di qualsiasi elemento memorizzato nel magazzino a lungo termine. Questa accessibilità di richiamo spiega anche la natura fragile dell’effetto recenza, cioè che i distrattori più semplici possono far dimenticare le ultime voci della lista, poiché le ultime voci non avrebbero avuto abbastanza tempo per formare un’associazione significativa nel magazzino a lungo termine. Se l’informazione viene eliminata dal magazzino a breve termine dai distrattori, la probabilità che gli ultimi elementi vengano ricordati dovrebbe essere inferiore persino agli elementi di pre-recenza al centro della lista.
Il modello SAM a doppio deposito utilizza anche il magazzino della memoria, che può essere classificato come un tipo di magazzino a lungo termine: la matrice semantica. Il magazzino a lungo termine in SAM rappresenta la memoria episodica, che si occupa solo delle nuove associazioni che si sono formate durante lo studio di una lista sperimentale; le associazioni preesistenti tra gli elementi della lista, quindi, devono essere rappresentate su una matrice diversa, la matrice semantica. La matrice semantica rimane come un’altra fonte di informazione che non viene modificata dalle associazioni episodiche che si formano durante l’esame.
Quindi, i due tipi di immagazzinamento della memoria, a breve e a lungo termine, sono utilizzati nel modello SAM. Nel processo di richiamo, gli elementi che risiedono nel magazzino di memoria a breve termine saranno richiamati per primi, seguiti dagli elementi che risiedono nel magazzino a lungo termine, dove la probabilità di essere richiamati è proporzionale alla forza dell’associazione presente nel magazzino a lungo termine. Un altro deposito di memoria, la matrice semantica, è utilizzata per spiegare l’effetto semantico associato al richiamo della memoria.