Flera minnesmodeller har föreslagits för att redogöra för olika typer av minnesprocesser, inklusive minnesförberedelser, fri återkallelse och seriell återkallelse. För att förklara återkallelseprocessen måste minnesmodellen dock identifiera hur ett kodat minne kan ligga i minneslagret under en längre tid tills minnet nås igen, under återkallelseprocessen; men inte alla modeller använder terminologin korttids- och långtidsminnen för att förklara minneslagring; dual-store-teorin och en modifierad version av Atkinson-Shiffrin-modellen för minne (Atkinson 1968) använder sig av både kort- och långtidsminneslagring, men andra gör det inte.
Multi-trace distributed memory modelEdit
Den multi-trace distribuerade minnesmodellen föreslår att de minnen som kodas omvandlas till vektorer av värden, där varje skalär kvantitet i en vektor representerar en annan egenskap hos det objekt som ska kodas. Ett sådant begrepp föreslogs först i tidiga teorier av Hooke (1969) och Semon (1923). Ett enskilt minne fördelas på flera attribut, eller funktioner, så att varje attribut representerar en aspekt av det minne som kodas. En sådan vektor av värden läggs sedan till i minnesmatrisen eller en matris, som består av olika spår eller minnesvektorer. Varje gång ett nytt minne kodas omvandlas detta minne till en vektor eller ett spår som består av skalära kvantiteter som representerar olika attribut och som sedan läggs till den redan existerande och ständigt växande minnesmatrisen som består av flera spår – därav namnet på modellen.
När minnesspår som motsvarar ett specifikt minne har lagrats i matrisen, måste man för att hämta minnet för återkallelseprocessen ge minnesmatrisen en signal med en specifik test, som skulle användas för att beräkna likheten mellan testvektorn och de vektorer som finns lagrade i minnesmatrisen. Eftersom minnesmatrisen ständigt växer med nya spår som läggs till, skulle man behöva utföra en parallell sökning genom alla spår som finns i minnesmatrisen för att beräkna likheten, vars resultat kan användas för att utföra antingen associativ igenkänning, eller med probabilistisk valregel, användas för att utföra en cued recall.
Men även om det har hävdats att det mänskliga minnet tycks kunna lagra en stor mängd information, i den utsträckning att vissa har trott på en oändlig mängd, så låter närvaron av en sådan ständigt växande matris i det mänskliga minnet osannolik. Dessutom föreslår modellen att det krävs parallell sökning mellan varje enskilt spår som finns i den ständigt växande matrisen för att utföra minnesprocessen, vilket också väcker tvivel om huruvida sådana beräkningar kan göras på kort tid. Sådana tvivel har dock utmanats av resultat från Gallistel och King som presenterar bevis för hjärnans enorma beräkningskapacitet som kan vara till stöd för ett sådant parallellt stöd.
Neurala nätverksmodellerRedigera
Modellen med flera spår hade två viktiga begränsningar: för det första låter begreppet om närvaron av en ständigt växande matris i det mänskliga minnet osannolikt, och för det andra låter beräkningsmässiga sökningar efter likhet mot miljontals spår som skulle finnas i minnesmatrisen för att beräkna likhet långt bortom räckvidden för den mänskliga minnesprocessen. Modellen för neurala nätverk är den idealiska modellen i detta fall, eftersom den övervinner de begränsningar som modellen med flera spår innebär och bibehåller modellens användbara egenskaper också.
Modellen för neurala nätverk utgår från att neuronerna i ett neuralt nätverk bildar ett komplext nätverk med andra neuroner, som bildar ett starkt sammankopplat nätverk; varje neuron kännetecknas av aktiveringsvärdet, och förbindelsen mellan två neuroner kännetecknas av viktvärdet. Interaktionen mellan varje neuron karakteriseras av McCulloch-Pitts dynamiska regel, och förändring av vikt och anslutningar mellan neuroner till följd av inlärning representeras av den hebbiska inlärningsregeln.
Anderson visar att kombinationen av den hebbiska inlärningsregeln och McCulloch-Pitts dynamiska regel gör det möjligt för nätverket att generera en viktmatris som kan lagra associationer mellan olika minnesmönster – en sådan matris är formen av minneslagring för modellen för det neurala nätverket. De största skillnaderna mellan matrisen för hypotesen om flera spår och modellen för det neurala nätverket är att medan ett nytt minne indikerar en utvidgning av den befintliga matrisen för hypotesen om flera spår, utvidgas inte viktmatrisen för modellen för det neurala nätverket, utan vikten sägs snarare uppdateras när en ny association mellan neuroner införs.
Med hjälp av viktmatrisen och den lärande/dynamiska regeln kan neuronerna, som får ett värde i cued, hämta det andra värdet som idealt sett är en nära approximation av den önskade målminnesvektorn.
Då Andersons viktmatris mellan neuronerna endast kommer att hämta approximationen av målobjektet när de får ett cued, sökte man efter en modifierad version av modellen för att kunna återkalla det exakta målminnet när man får ett cued. Hopfield Net är för närvarande den enklaste och mest populära neurala nätverksmodellen för associativt minne; modellen gör det möjligt att återkalla en tydlig målvektor när man får en signal om en del av vektorn eller en ”bullrig” version av vektorn.
Viktmatrisen i Hopfield Net, som lagrar minnet, påminner mycket om den viktmatris som används i den viktmatris som föreslogs av Anderson. Återigen, när en ny association införs, sägs viktmatrisen ”uppdateras” för att ta hänsyn till införandet av det nya minnet; det lagras tills matrisen får en annan vektor som signal.
Dual-store memory search modelEdit
Först utvecklad av Atkinson och Shiffrin (1968), och förfinad av andra, inklusive Raajimakers och Shiffrin, förblir dual-store memory search model, numera kallad SAM eller search of associative memory model, som en av de mest inflytelserika beräkningsmodellerna för minne. Modellen använder både korttidsminnet, kallat short-term store (STS), och långtidsminnet, kallat long-term store (LTS) eller episodisk matris, i sin mekanism.
När ett objekt kodas för första gången förs det in i short-term store. Medan objektet stannar i korttidsminnet genomgår vektorrepresentationer i långtidsminnet en mängd olika associationer. Poster som introduceras i korttidslagret genomgår tre olika typer av associationer: (autoassociation) självassociation i långtidslagret, (heteroassociation) inter-itemassociation i långtidslagret och (kontextassociation ) som avser associationen mellan objektet och dess kodade kontext. För varje objekt i det kortsiktiga lagret gäller att ju längre tid ett objekt befinner sig i det kortsiktiga lagret, desto större kommer dess association med sig själv att vara med andra objekt som samtidigt befinner sig i det kortsiktiga lagret, och med dess kodade kontext.
Storleken på det kortsiktiga lagret definieras av en parameter, r. När ett objekt introduceras i det kortsiktiga lagret, och om det kortsiktiga lagret redan har upptagits av ett maximalt antal objekt, kommer objektet troligen att försvinna ur det kortsiktiga lagret.
När objekt sambor i det kortsiktiga lagret uppdateras deras associationer ständigt i matrisen för det långsiktiga lagret. Styrkan i associationen mellan två objekt beror på hur mycket tid de två minnesobjekten tillbringar tillsammans i korttidslagret, den så kallade kontiguitetseffekten. Två objekt som är sammanhängande har större associationsstyrka och återkallas ofta tillsammans från långtidslagret.
För övrigt visar primacy-effekten, en effekt som ses i minnesåterkallelseparadigm, att de första få objekten i en lista har en större chans att återkallas framför andra i STS, medan äldre objekt har en större chans att falla bort från STS. Det objekt som lyckades stanna kvar i STS under en längre tid skulle ha bildat en starkare autoassociation, heteroassociation och kontextassociation än andra, vilket i slutändan leder till en större associativ styrka och en större chans att bli ihågkommen.
Recency-effekten i minnesexperiment är när de sista objekten i en lista återkallas exceptionellt bra över andra objekt, och kan förklaras av det kortsiktiga lagret. När studien av en viss minneslista har avslutats, är det som i slutändan finns i det kortsiktiga lagret sannolikt de sista få punkterna som introducerades sist. Eftersom korttidsminnet är lättillgängligt kommer sådana föremål att återkallas före alla föremål som lagras i långtidsminnet. Denna tillgänglighet till minnet förklarar också den bräckliga karaktären hos recency-effekten, dvs. att de enklaste distraktorer kan få en person att glömma de sista sakerna i listan, eftersom de sista sakerna inte skulle ha haft tillräckligt med tid för att bilda någon meningsfull association i det långsiktiga lagret. Om informationen tappas ur det kortsiktiga lagret av distraktorer skulle sannolikheten för att de sista posterna återkallas förväntas vara lägre än t.o.m. posterna före recency i mitten av listan.
Den dubbla SAM-modellen med två lager använder sig också av minneslagring, som i sig självt kan klassificeras som en typ av långtidslagring: den semantiska matrisen. Långtidslagret i SAM representerar det episodiska minnet, som endast behandlar nya associationer som bildades under studiet av en experimentell lista; redan existerande associationer mellan objekt i listan måste alltså representeras på en annan matris, den semantiska matrisen. Den semantiska matrisen kvarstår som en annan informationskälla som inte ändras av episodiska associationer som bildas under provet.
Därmed används de två typerna av minneslagring, kort- och långtidslager, i SAM-modellen. I återkallelseprocessen kommer objekt som finns i korttidsminneslagret att återkallas först, följt av objekt som finns i långtidslagret, där sannolikheten att återkallas är proportionell mot styrkan i den association som finns i långtidslagret. En annan minneslagring, den semantiska matrisen, används för att förklara den semantiska effekten i samband med minnesåterkallelse.